Les hommes sont comme les plantes, qui ne croissent jamais heureusement, si elles ne sont bien cultivées.
  Autres documents :
 

INTELLIGENCE ARTIFICIELLE

Créée il y a 40 ans, l'intelligence artificielle s'est donnée comme but de   réaliser un vieux rêve :  comprendre le raisonnement humain et réussir à la   simuler par une machine. Où est ce projet aujourd'hui  ?

          En août 1956, dans l'état du New Hampshire, dans la ville de Hanover, au Campus du Dartmouth College (USA), un séminaire d'été réunit une équipe de jeunes chercheurs animés d'un projet exaltant  :  celui de fonder une nouvelle discipline scientifique : l' Intelligence Artificielle ( IA).

          L'organisateur, McCarthy, l'inventeur du terme IA, ses amis Herbert (A), Simon le théoricien des organisations, Allen, N., Marvin, M., les mathématiciens et C. Shannon, le père de la théorie de l'information, étaient présents à ce séminaire fondateur.
          L'ambition de ces pionniers est de renouer avec un vieux rêve : construire des machines qui copient et même surpassent les capacités humaines grâce aux nouveaux moyens de l'informatique naissante.

          Un projet grandiose

           A l'époque, les premiers ordinateurs étaient encore de grosses machines à calculer. Ils exécutaient des calculs numériques sophistiqués et géraient d'énormes fichiers, mais leur travail reposait sur des tâches élémentaires et répétitives qu'ils réalisaient grâce à leur mémoire prodigieuse et à une vitesse foudroyante.

          Avec l' IA, il s'agit de tout autre chose : Copier l'intelligence humaine nécessite d'être capable de raisonner, de percevoir, de comprendre et d'utiliser  le langage humain, d'apprendre, de découvrir, de créer...

          A l'origine, l' IA  n'est encore qu'un "projet" assez flou, qui se définissait plus par ses ambitions que par des frontières précises. L' intelligence artificielle est la science qui consiste à faire réaliser aux machines ce que l'homme ferait moyennant une certaine intelligence. Comment va-t-on s'y prendre pour copier l'intelligence humaine  ?  Cette ambition repose sur l' hypothèse suivante  :  la pensée humaine fonctionne comme une "machine logique" qui résout des problèmes à la manière d'un "automate programmable". Penser n'est rien d'autre qu' exécuter une suite de raisonnements et de calculs successifs dans un ordre déterminé afin de parvenir à une solution donnée.  Un tel programme de recherche fut suggéré par les travaux de Alain Turing, l'un des pères de l'informatique. A partir de ce postulat, il a conçu, dès 1936, l'idée d'une "machine universelle" qui fut quelques années plus tard le prototype de l'ordinateur. Si on peut faire exécuter par un ordinateur des choses aussi différentes que calculer, décrypter des messages codés, piloter des machines, etc., alors la pensée humaine ne peut-elle pas aussi s'exprimer sous forme d'un petit nombre d'opérations logiques ?  Cette vision globale de l'intelligence et de la pensée humaine, qualifiée de "computationnelle", se résume à l'idée simple de  H. A. Simon  : " Penser, c'est calculer."

          Un modèle informatique pour la pensée

           Les pionniers de l' IA n'arrivent pas les mains vides au séminaire fondateur. H.A. Simon et A. Newell ont passé l'hiver 1955 à concevoir le premier programme d'intelligence artificielle : le Logic Theorist.  Fonctionnant sur le principe de la déduction, ce programme est capable d'enchaîner et d'articuler une foule de propositions entre elles à partir de quelques prémices. Le modèle appliqué est celui du Syllogisme  :  "Si A implique B" et "B implique C" alors "A implique C".  Sur cette base, A. Newell et H A Simon sont parvenus à faire redécouvrir par le Logic Theorist 38 des 52 premiers théorèmes du Principia Mathematica de B. Russell et A.N. Whitehead, livre alors considéré comme l'un des plus prestigieux ouvrages de logique du 20° siècle.
          Une machine qui démontre les théorèmes ! Tel est donc le premier exploit à mettre au crédit des deux pionniers de l' IA. Ce n'est qu'un début : bientôt, espèrent nos pionniers, les programmes pourront découvrir de nouveaux théorèmes, comprendre et traduire des textes, dialoguer d'égal à égal avec l'homme et même le dépasser en intelligence.  Le séminaire se clôt sur un fol espoir  :  l'IA. est née et plus rien ne doit l'arrêter.

          Dès l'année suivante, H.A. Simon et A. Newell imaginent de construire un programme encore plus ambitieux. Il ne s'agit plus simplement de faire une machine à déduire mais de proposer un modèle universel apte à résoudre toute une classe de problèmes. C'est ainsi que naquit en 1957 le General Problem Solver (GPS).

          L'idée de départ est que tout problème stratégique (jouer aux échecs, résoudre un problème de math, sortir d'un labyrinthe, organiser un emploi du temps, tec.) peut être résolu en le décomposant en une série d'étapes élémentaires, en rxplorant une série de voies possibles, puis en les comparant entre elles, jusqu'à ce que l'unique ou la meilleure solution soit trouvée. Par exemple, face à une panne mécanique, le garagiste peut vérifier une à une toutes les pièces du moteur, les faire fonctionner isolément jusqu'à ce qu'il découvre la pièce défectueuse. Cette stratégie de résolution de problèmes est une des solutions possibles. Or, une telle démarche de résolution de problèmes est aisément traduisible en langage informatique sous forme d'arbres de décisions  où chacune des branches correspond à une option possible (si l'allumage ne se fait pas, voir état de la batterie, si la batterie est en bon état de marche, vérifier les contacts de la batterie, etc.).

          Pour H.A. Simon, on peut résoudre toutes sortes de problèmes en les traduisant sous forme d'une suite d'opérations logiques plus simples. Car, face à des problèmes de décision complexes, l'homme opère en utilisant des heuristiques, c'est-à-dire, des solutions intermédiaires, moins coûteuses, plus faciles à manier et moins fiables que des solutions mathématiques optimales... Par ex., confronté à ce jeu de chiffres et de lettres où il s'agit de trouver le mot le plus long avec neuf lettres (par ex. a v r t u n g s e),  la stratégie adoptée ne peut être de comparer toutes les combinaisons possibles (il y a 363880 combinaisons).  Cette stratégie optimale dite "algorithmique" serait infaillible mais impossible à réaliser en 50 minutes.  On va opérer le plus souvent en cherchant d'abord les associations des lettres les plus courantes ou trouver des terminaisons courantes... Méthode moins fiable mais plus efficace.

          Armés de tels programmes résolveurs de problèmes, Simn et Newell pensent alors pouvoir rapidement l'appliquer à une masse de domaines différents. Pour trouver des heuristiques (stratégies de résolution de problèmes) propres à chaque domaine, il suffirait d'interroger des experts, de repérer les stratégies mentales qu'ils utilisent, puis de formaliser et de les traduire ensuite en programmes informatiques, c'est-à-dire, en une série d'instructions codées en langage symbolique abstrait compréhensible par l'ordinateur.
          Pour H.A. Simon, il est clair que le GPS jette les bases d'une  IA. qui sera bientôt capable de rivaliser avec l'humain dans les tâches les plus diverses, les plus abstraites et les plus complexes.

          Sur cette lancée, les recherches s'engagent et, dans les années qui suivent, de nouvelles réalisations voient le jour.  En 1958, J. McCarthy crée le LISP (LIS Processing = traitement de ligne), un langage de programmation en IA qui est encore aujourd'hui l'un des plus utilisés. En 1959, A. Samuel invente un programme de jeu de dames.  A partir des années 60, les premiers systèmes experts sont mis au point. En 1965, E. Feigenhaum crée DENTRAL, un système expert capable de déterminer la formule chimique d'une molécule. En 1966, naît ELIZA, un programme de dialogue homme/ machine conçu par J. Weizenbaum. En 1970, T. Winograd crée SHRDLU, qui comprend et répond à des instructions (déplacer des objets sur un support) données en langage humain.
          Enfin, la recherche passe de la phase bouillonnante à l'organisation. En 1970, paraît le premier numéro de la revue Artificial Intelligence.  La nouvelle science est sur orbite.

          Les blocages inattendus

           Face à ces innovations prometteuses, des difficultés inattendues apparaissent. L'une des premières concerne le prend programme de traitement des langues, notamment de traduction automatique. L'affaire se révèle plus complexe qu'on ne l'avait imaginé. Les premiers traducteurs automatiques fonctionnent sur un principe assez grossier : la traduction au mot à mot. Or, la machine ne peut comprendre le sens de chaque mot.(certaines réalités ayant deux mots). En plus, la tentative de créer la grammaire générative, capable de d'interpréter et de recomposer l'ordre des mots dans les phrases complexes, se heurte à plusieurs obstacles.

          L' IA découvre d'autres limites. C'est le cas des essais menés dans le domaine de la perception. Les tâches de perception visuelle ou auditive semblent apparemment moins élaborées que des actes plus "intelligents" comme résoudre un problème chimique. Or, le problème était plus ardu. Certes, le SHRDLU était capable de reconnaître des formes géométriques, mais exécuter une tâche comme celle qui consiste à reconnaître un même visage sous des angles différents est une tâche impossible à réaliser par la machine.

          Aussi, bien que dotés de mémoires de plus en plus étendues, les ordinateurs ont des capacités à tirer des leçons (apprendre) de l'expérience et à généraliser à partir des cas particuliers très peu développées.  pour toutes ces raisons, certains commencent à douter des capacités de l'IA à réaliser ses grands projets.

          Le philosophe D. Hubert critique les prétentions de l'IA soutenant l'idée que l'intelligence humaine ne fonctionne pas selon les seules règles formelles, qu'elle est plus souple et plus nuancée. L'ordinateur ne pense pas parce qu'il n'accède pas au sens, il fonctionne sur des symboles abstraits, sans signification. L'esprit humain est sémantique.

          Comment donner du sens aux symboles ?

           Pour tenter de relever les nouveaux défis, les spécialistes de l' IA doivent s'employer à résoudre plusieurs problèmes essentiels  :
 
- créer des modes de raisonnement plus souples, plus intuitifs, moins raisonneurs et moins logiques, plus flexibles et généralistes.
- créer des architectures nouvelles adaptées à des tâches (perception, apprentissage)
-intégrer dans la machine les connaissances sur le monde qui lui permettent d'interpréter et de comprendre le sens des symboles et des concepts qu'elle manipule.

          Afin d'affronter les problèmes de raisonnements intuitifs, certains chercheurs se lancent dans la création et l'utilisation de "logiques floues et modales", puis des modèles connexionnistes remplacent des architectures classiques. Des réseaux sémantiques apparaissent afin d'apprendre à la machine à se comporter de façon pertinente face aux situations auxquelles elle est confrontée et de la doter d'authentiques connaissances sur le monde. On tente de faire une machine "cultivée et informée". Mais les exploits restent limités.

          L' IA modeste   ?

           L'objectif est désormais de se centrer sur des réalisations plus spécialisées plus opérationnelles et non plus à la machine universelle. De fait, l'IA s'est centrée sur :  les jeux stratégiques (échec, dome, go), le tratement des langues (décryptage de l'écriture manuscrite, de la voix, acquisition d'éléments de syntaxe et de sémantique dans les domaines spécialisés (langue commerciale, technique), la perception à partir des caméras, la robotique quant aux tâches très spécialisées, les systèmes experts...


H. DREYFUS, L'intelligence artificielle : mythes et limites, Paris, Flammarion, 1984.
Max KUPELESA © 2006
    Webmaster