| 
    |||||||||||||||||||||||
  | 
      INTELLIGENCE ARTIFICIELLE            En
          août 1956, dans l'état du New Hampshire,
          dans la ville de Hanover, au Campus du Dartmouth College
          (USA), un séminaire d'été réunit
          une équipe de jeunes chercheurs animés
          d'un projet exaltant  :  celui de fonder une
          nouvelle discipline scientifique : l' Intelligence
            Artificielle ( IA). Un projet grandiose A l'époque, les premiers ordinateurs étaient encore de grosses machines à calculer. Ils exécutaient des calculs numériques sophistiqués et géraient d'énormes fichiers, mais leur travail reposait sur des tâches élémentaires et répétitives qu'ils réalisaient grâce à leur mémoire prodigieuse et à une vitesse foudroyante. Avec l' IA, il s'agit de tout autre chose : Copier l'intelligence humaine nécessite d'être capable de raisonner, de percevoir, de comprendre et d'utiliser le langage humain, d'apprendre, de découvrir, de créer...           A
          l'origine, l' IA  n'est encore qu'un  "projet" assez
          flou, qui se définissait plus par ses ambitions
          que par des frontières précises. L'
            intelligence artificielle est la science qui consiste à faire
            réaliser aux machines ce que l'homme ferait moyennant
            une certaine intelligence. Comment va-t-on
              s'y prendre pour copier l'intelligence humaine  ?  Cette
          ambition repose sur l' hypothèse suivante  :  la
            pensée humaine fonctionne comme Un modèle informatique pour la pensée            Les
          pionniers de l' IA n'arrivent pas les mains vides au
          séminaire fondateur. H.A. Simon et A. Newell ont
          passé  l'hiver 1955 à concevoir le premier
          programme d'intelligence artificielle : le Logic
            Theorist.  Fonctionnant sur le principe de
          la déduction, ce programme est capable
          d'enchaîner et d'articuler une foule de propositions
          entre elles à partir de quelques prémices.
          Le modèle appliqué est celui du Syllogisme   :  "Si
            A implique B" et  "B implique C" alors "A
            implique C".  Sur cette base, A. Newell
          et H A Simon sont parvenus à faire redécouvrir
          par le Logic Theorist 38 des 52 premiers théorèmes
          du Principia Mathematica de B. Russell et A.N. Whitehead,
          livre alors considéré comme l'un des plus
          prestigieux ouvrages de logique du 20° siècle. Dès l'année suivante, H.A. Simon et A. Newell imaginent de construire un programme encore plus ambitieux. Il ne s'agit plus simplement de faire une machine à déduire mais de proposer un modèle universel apte à résoudre toute une classe de problèmes. C'est ainsi que naquit en 1957 le General Problem Solver (GPS). L'idée de départ est que tout problème stratégique (jouer aux échecs, résoudre un problème de math, sortir d'un labyrinthe, organiser un emploi du temps, tec.) peut être résolu en le décomposant en une série d'étapes élémentaires, en rxplorant une série de voies possibles, puis en les comparant entre elles, jusqu'à ce que l'unique ou la meilleure solution soit trouvée. Par exemple, face à une panne mécanique, le garagiste peut vérifier une à une toutes les pièces du moteur, les faire fonctionner isolément jusqu'à ce qu'il découvre la pièce défectueuse. Cette stratégie de résolution de problèmes est une des solutions possibles. Or, une telle démarche de résolution de problèmes est aisément traduisible en langage informatique sous forme d'arbres de décisions où chacune des branches correspond à une option possible (si l'allumage ne se fait pas, voir état de la batterie, si la batterie est en bon état de marche, vérifier les contacts de la batterie, etc.). Pour H.A. Simon, on peut résoudre toutes sortes de problèmes en les traduisant sous forme d'une suite d'opérations logiques plus simples. Car, face à des problèmes de décision complexes, l'homme opère en utilisant des heuristiques, c'est-à-dire, des solutions intermédiaires, moins coûteuses, plus faciles à manier et moins fiables que des solutions mathématiques optimales... Par ex., confronté à ce jeu de chiffres et de lettres où il s'agit de trouver le mot le plus long avec neuf lettres (par ex. a v r t u n g s e), la stratégie adoptée ne peut être de comparer toutes les combinaisons possibles (il y a 363880 combinaisons). Cette stratégie optimale dite "algorithmique" serait infaillible mais impossible à réaliser en 50 minutes. On va opérer le plus souvent en cherchant d'abord les associations des lettres les plus courantes ou trouver des terminaisons courantes... Méthode moins fiable mais plus efficace.           Armés
          de tels programmes résolveurs de problèmes,
          Simn et Newell pensent alors pouvoir rapidement l'appliquer à une
          masse de domaines différents. Pour trouver des
          heuristiques (stratégies de résolution
          de problèmes) propres à chaque domaine, il
            suffirait d'interroger des experts, de repérer
            les stratégies mentales qu'ils utilisent, puis
            de formaliser et de les traduire ensuite en programmes
            informatiques, c'est-à-dire, en une série
          d'instructions codées en langage symbolique abstrait
          compréhensible par l'ordinateur.           Sur
          cette lancée, les recherches s'engagent et, dans
          les années qui suivent, de nouvelles réalisations
          voient le jour.   En 1958, J. McCarthy crée
          le LISP (LIS Processing = traitement de ligne), un langage
          de programmation en IA qui est encore aujourd'hui l'un
          des plus utilisés. En 1959, A. Samuel invente
          un programme de jeu de dames.  A partir des années
          60, les premiers systèmes experts sont mis au
          point. En 1965, E. Feigenhaum crée DENTRAL, un
          système expert capable de déterminer la
          formule chimique d'une molécule. En 1966, naît
          ELIZA, un programme de dialogue homme/ machine conçu
          par J. Weizenbaum. En 1970, T. Winograd crée SHRDLU,
          qui comprend et répond à des instructions
          (déplacer des objets sur un support) données
          en langage humain.  Les blocages inattendus Face à ces innovations prometteuses, des difficultés inattendues apparaissent. L'une des premières concerne le prend programme de traitement des langues, notamment de traduction automatique. L'affaire se révèle plus complexe qu'on ne l'avait imaginé. Les premiers traducteurs automatiques fonctionnent sur un principe assez grossier : la traduction au mot à mot. Or, la machine ne peut comprendre le sens de chaque mot.(certaines réalités ayant deux mots). En plus, la tentative de créer la grammaire générative, capable de d'interpréter et de recomposer l'ordre des mots dans les phrases complexes, se heurte à plusieurs obstacles. L' IA découvre d'autres limites. C'est le cas des essais menés dans le domaine de la perception. Les tâches de perception visuelle ou auditive semblent apparemment moins élaborées que des actes plus "intelligents" comme résoudre un problème chimique. Or, le problème était plus ardu. Certes, le SHRDLU était capable de reconnaître des formes géométriques, mais exécuter une tâche comme celle qui consiste à reconnaître un même visage sous des angles différents est une tâche impossible à réaliser par la machine. Aussi, bien que dotés de mémoires de plus en plus étendues, les ordinateurs ont des capacités à tirer des leçons (apprendre) de l'expérience et à généraliser à partir des cas particuliers très peu développées. pour toutes ces raisons, certains commencent à douter des capacités de l'IA à réaliser ses grands projets. Le philosophe D. Hubert critique les prétentions de l'IA soutenant l'idée que l'intelligence humaine ne fonctionne pas selon les seules règles formelles, qu'elle est plus souple et plus nuancée. L'ordinateur ne pense pas parce qu'il n'accède pas au sens, il fonctionne sur des symboles abstraits, sans signification. L'esprit humain est sémantique. Comment donner du sens aux symboles ?            Pour
          tenter de relever les nouveaux défis, les spécialistes
          de l' IA doivent s'employer  à résoudre
          plusieurs problèmes essentiels   :  Afin d'affronter les problèmes de raisonnements intuitifs, certains chercheurs se lancent dans la création et l'utilisation de "logiques floues et modales", puis des modèles connexionnistes remplacent des architectures classiques. Des réseaux sémantiques apparaissent afin d'apprendre à la machine à se comporter de façon pertinente face aux situations auxquelles elle est confrontée et de la doter d'authentiques connaissances sur le monde. On tente de faire une machine "cultivée et informée". Mais les exploits restent limités. L'objectif est désormais de se centrer sur des réalisations plus spécialisées plus opérationnelles et non plus à la machine universelle. De fait, l'IA s'est centrée sur : les jeux stratégiques (échec, dome, go), le tratement des langues (décryptage de l'écriture manuscrite, de la voix, acquisition d'éléments de syntaxe et de sémantique dans les domaines spécialisés (langue commerciale, technique), la perception à partir des caméras, la robotique quant aux tâches très spécialisées, les systèmes experts...  | 
    ||||||||||||||||||||||
  | 
    |||||||||||||||||||||||