|
|||||||||||||||||||||||
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
|||||||||||||||||
|
INTELLIGENCE ARTIFICIELLE En
août 1956, dans l'état du New Hampshire,
dans la ville de Hanover, au Campus du Dartmouth College
(USA), un séminaire d'été réunit
une équipe de jeunes chercheurs animés
d'un projet exaltant : celui de fonder une
nouvelle discipline scientifique : l' Intelligence
Artificielle ( IA). Un projet grandiose A l'époque, les premiers ordinateurs étaient encore de grosses machines à calculer. Ils exécutaient des calculs numériques sophistiqués et géraient d'énormes fichiers, mais leur travail reposait sur des tâches élémentaires et répétitives qu'ils réalisaient grâce à leur mémoire prodigieuse et à une vitesse foudroyante. Avec l' IA, il s'agit de tout autre chose : Copier l'intelligence humaine nécessite d'être capable de raisonner, de percevoir, de comprendre et d'utiliser le langage humain, d'apprendre, de découvrir, de créer... A
l'origine, l' IA n'est encore qu'un "projet" assez
flou, qui se définissait plus par ses ambitions
que par des frontières précises. L'
intelligence artificielle est la science qui consiste à faire
réaliser aux machines ce que l'homme ferait moyennant
une certaine intelligence. Comment va-t-on
s'y prendre pour copier l'intelligence humaine ? Cette
ambition repose sur l' hypothèse suivante : la
pensée humaine fonctionne comme Un modèle informatique pour la pensée Les
pionniers de l' IA n'arrivent pas les mains vides au
séminaire fondateur. H.A. Simon et A. Newell ont
passé l'hiver 1955 à concevoir le premier
programme d'intelligence artificielle : le Logic
Theorist. Fonctionnant sur le principe de
la déduction, ce programme est capable
d'enchaîner et d'articuler une foule de propositions
entre elles à partir de quelques prémices.
Le modèle appliqué est celui du Syllogisme : "Si
A implique B" et "B implique C" alors "A
implique C". Sur cette base, A. Newell
et H A Simon sont parvenus à faire redécouvrir
par le Logic Theorist 38 des 52 premiers théorèmes
du Principia Mathematica de B. Russell et A.N. Whitehead,
livre alors considéré comme l'un des plus
prestigieux ouvrages de logique du 20° siècle. Dès l'année suivante, H.A. Simon et A. Newell imaginent de construire un programme encore plus ambitieux. Il ne s'agit plus simplement de faire une machine à déduire mais de proposer un modèle universel apte à résoudre toute une classe de problèmes. C'est ainsi que naquit en 1957 le General Problem Solver (GPS). L'idée de départ est que tout problème stratégique (jouer aux échecs, résoudre un problème de math, sortir d'un labyrinthe, organiser un emploi du temps, tec.) peut être résolu en le décomposant en une série d'étapes élémentaires, en rxplorant une série de voies possibles, puis en les comparant entre elles, jusqu'à ce que l'unique ou la meilleure solution soit trouvée. Par exemple, face à une panne mécanique, le garagiste peut vérifier une à une toutes les pièces du moteur, les faire fonctionner isolément jusqu'à ce qu'il découvre la pièce défectueuse. Cette stratégie de résolution de problèmes est une des solutions possibles. Or, une telle démarche de résolution de problèmes est aisément traduisible en langage informatique sous forme d'arbres de décisions où chacune des branches correspond à une option possible (si l'allumage ne se fait pas, voir état de la batterie, si la batterie est en bon état de marche, vérifier les contacts de la batterie, etc.). Pour H.A. Simon, on peut résoudre toutes sortes de problèmes en les traduisant sous forme d'une suite d'opérations logiques plus simples. Car, face à des problèmes de décision complexes, l'homme opère en utilisant des heuristiques, c'est-à-dire, des solutions intermédiaires, moins coûteuses, plus faciles à manier et moins fiables que des solutions mathématiques optimales... Par ex., confronté à ce jeu de chiffres et de lettres où il s'agit de trouver le mot le plus long avec neuf lettres (par ex. a v r t u n g s e), la stratégie adoptée ne peut être de comparer toutes les combinaisons possibles (il y a 363880 combinaisons). Cette stratégie optimale dite "algorithmique" serait infaillible mais impossible à réaliser en 50 minutes. On va opérer le plus souvent en cherchant d'abord les associations des lettres les plus courantes ou trouver des terminaisons courantes... Méthode moins fiable mais plus efficace. Armés
de tels programmes résolveurs de problèmes,
Simn et Newell pensent alors pouvoir rapidement l'appliquer à une
masse de domaines différents. Pour trouver des
heuristiques (stratégies de résolution
de problèmes) propres à chaque domaine, il
suffirait d'interroger des experts, de repérer
les stratégies mentales qu'ils utilisent, puis
de formaliser et de les traduire ensuite en programmes
informatiques, c'est-à-dire, en une série
d'instructions codées en langage symbolique abstrait
compréhensible par l'ordinateur. Sur
cette lancée, les recherches s'engagent et, dans
les années qui suivent, de nouvelles réalisations
voient le jour. En 1958, J. McCarthy crée
le LISP (LIS Processing = traitement de ligne), un langage
de programmation en IA qui est encore aujourd'hui l'un
des plus utilisés. En 1959, A. Samuel invente
un programme de jeu de dames. A partir des années
60, les premiers systèmes experts sont mis au
point. En 1965, E. Feigenhaum crée DENTRAL, un
système expert capable de déterminer la
formule chimique d'une molécule. En 1966, naît
ELIZA, un programme de dialogue homme/ machine conçu
par J. Weizenbaum. En 1970, T. Winograd crée SHRDLU,
qui comprend et répond à des instructions
(déplacer des objets sur un support) données
en langage humain. Les blocages inattendus Face à ces innovations prometteuses, des difficultés inattendues apparaissent. L'une des premières concerne le prend programme de traitement des langues, notamment de traduction automatique. L'affaire se révèle plus complexe qu'on ne l'avait imaginé. Les premiers traducteurs automatiques fonctionnent sur un principe assez grossier : la traduction au mot à mot. Or, la machine ne peut comprendre le sens de chaque mot.(certaines réalités ayant deux mots). En plus, la tentative de créer la grammaire générative, capable de d'interpréter et de recomposer l'ordre des mots dans les phrases complexes, se heurte à plusieurs obstacles. L' IA découvre d'autres limites. C'est le cas des essais menés dans le domaine de la perception. Les tâches de perception visuelle ou auditive semblent apparemment moins élaborées que des actes plus "intelligents" comme résoudre un problème chimique. Or, le problème était plus ardu. Certes, le SHRDLU était capable de reconnaître des formes géométriques, mais exécuter une tâche comme celle qui consiste à reconnaître un même visage sous des angles différents est une tâche impossible à réaliser par la machine. Aussi, bien que dotés de mémoires de plus en plus étendues, les ordinateurs ont des capacités à tirer des leçons (apprendre) de l'expérience et à généraliser à partir des cas particuliers très peu développées. pour toutes ces raisons, certains commencent à douter des capacités de l'IA à réaliser ses grands projets. Le philosophe D. Hubert critique les prétentions de l'IA soutenant l'idée que l'intelligence humaine ne fonctionne pas selon les seules règles formelles, qu'elle est plus souple et plus nuancée. L'ordinateur ne pense pas parce qu'il n'accède pas au sens, il fonctionne sur des symboles abstraits, sans signification. L'esprit humain est sémantique. Comment donner du sens aux symboles ? Pour
tenter de relever les nouveaux défis, les spécialistes
de l' IA doivent s'employer à résoudre
plusieurs problèmes essentiels : Afin d'affronter les problèmes de raisonnements intuitifs, certains chercheurs se lancent dans la création et l'utilisation de "logiques floues et modales", puis des modèles connexionnistes remplacent des architectures classiques. Des réseaux sémantiques apparaissent afin d'apprendre à la machine à se comporter de façon pertinente face aux situations auxquelles elle est confrontée et de la doter d'authentiques connaissances sur le monde. On tente de faire une machine "cultivée et informée". Mais les exploits restent limités. L'objectif est désormais de se centrer sur des réalisations plus spécialisées plus opérationnelles et non plus à la machine universelle. De fait, l'IA s'est centrée sur : les jeux stratégiques (échec, dome, go), le tratement des langues (décryptage de l'écriture manuscrite, de la voix, acquisition d'éléments de syntaxe et de sémantique dans les domaines spécialisés (langue commerciale, technique), la perception à partir des caméras, la robotique quant aux tâches très spécialisées, les systèmes experts... |
||||||||||||||||||||||
|