Qu’est-ce que l’intelligence artificielle ?

C’est au congrès de Dartmouth en 1956 que l’expression intelligence artificielle a été proposée. Le succès de cette appellation provient de ce qu’elle énonce de façon simple une problématique fondamentale : la possibilité de concevoir une machine intelligente. Que signifie construire une machine intelligente ? On peut envisager essentiellement deux types de réponses :

  1. une machine sera considérée comme intelligente si elle reproduit le comportement d’un être humain dans un domaine spécifique ou non
  2. une machine sera considérée comme intelligente si elle modélise le fonctionnement d’un être humain.

Pour comprendre en quoi ces deux approches diffèrent, prenons l’exemple du jeu d’échecs. Savoir jouer aux échecs sans aucun doute requiert de l’intelligence. On ne connaît aucun système de règles dont l’observation suffirait à l’un des deux camps pour gagner (ou tout au moins, pour annuler) contre toute défense : ce jeu n’y aurait probablement pas survécu. Réaliser un programme jouant aux échecs peut donc constituer un sujet de recherche en intelligence artificielle. Mais selon que l’on adhère à la première approche de l’Intelligence Artificielle ou à la seconde, on ne réalisera pas la même machine :

  • dans le premier cas, on essaiera d’obtenir un programme efficace. Peu importe alors que la machine fasse des calculs inaccessibles à l’homme, comme explorer quelques centaines de millions (ou milliards) de positions à la seconde.
  • dans le second, on essaiera d’abord de comprendre comment l’homme joue aux échecs. Pour cela, on interviewera des maîtres, on essaiera de dégager les règles plus ou moins consciemment suivies par les joueurs. Le programme réalisé validera (ou non) les hypothèses qui auront été faites.
  • Les informaticiens adhèrent souvent à la première interprétation de l’intelligence artificielle. On peut noter les rapports entre cette approche et celle de l’école béhavioriste ou comportementaliste en psychologie pour laquelle seul le comportement est un sujet d’études scientifique. On désigne parfois par ingénierie des connaissances cette branche de l’informatique dont l’objet est de concevoir des machines reproduisant (et dépassant) les capacités humaines (et surtout celles qui semblent échapper à toute méthode, à tout algorithme). Les sciences cognitives par contre (ou plus exactement le cognitivisme qui en représente le courant principal des années 1960 à nos jours) se sont constituées en posant comme hypothèse de base la pertinence de l’analogie entre les couples esprit|cerveau et logiciel|matériel. Daniel Andler, dans sa préface à L’introduction aux sciences cognitives [2], montre clairement en quoi le paradigme du cognitivisme repose sur cette analogie. Daniel Andler décrit ce paradigme en trois propositions :
  • Le complexe esprit-cerveau est susceptible d’une double description : matérielle ou physique et informationnelle ou fonctionnelle. Ces deux niveaux sont largement indépendants : de même qu’un programme peut être exécuté sur des machines possédant des architectures différentes, deux individus peuvent présenter les mêmes fonctionnalités sans pour autant que leurs architectures neuronales soient identiques. Le fonctionnalisme est alors la notion centrale qui permet d’envisager un monisme (il est inutile de postuler l’existence d’un esprit irréductible à la matière) non réductionniste (les fonctionnalités ne sont pas identiques à leurs implémentations matérielles).
  • Au niveau informationnel, le système cognitif de l’homme est caractérisé par ses états internes ou mentaux et par les processus qui conduisent d’un état au suivant. Ces états sont représentationnels (dotés d’un contenu renvoyant à des entités externes) c’est-à-dire sémantiquement évaluables.
  • Les états ou représentations internes sont des formules d’un langage interne (le mentalais : mot créé par J. Fodor [6]) proche des langages formels de la logique. Les processus sont effectifs c’est-à-dire calculables.

Il semble que cette dichotomie entre ces deux approches de l’I.A. devienne de moins en moins pertinente et cela pour deux raisons :

  • la force brute de l’ordinateur ne suffit jamais à résoudre les problèmes les plus compliqués. Il est nécessaire d’y adjoindre des heuristiques, des méthodes de représentations des connaissances qui proviennent souvent d’une analyse de la manière dont nous fonctionnons.
  • le courant cognitiviste semble un peu marquer le pas. Les programmes de recherche très ambitieux qu’il s’était fixé dans les années 1950-60 n’ont pas donné les résultats escomptés. D’autres paradigmes ont vu le jour. Le connectionnisme (réseaux neuronaux) et les algorithmes adaptatifs (algorithmes génétiques) intéressent de plus en plus la communauté des sciences cognitives comme alternative à l’intelligence artificielle classique.

 

Cf http://www.grappa.univ-lille3.fr/polys/intro/sortie001.html

 Georges Vignaux

Publicités
Ce contenu a été publié dans Uncategorized par georgesvignaux. Mettez-le en favori avec son permalien.

A propos georgesvignaux

Directeur de recherche honoraire au Centre national de la recherche scientifique, Paris. Docteur d'Etat en linguistique et sciences cognitives (Paris7) Directeur de programmes en langage et cognition et nouvelles technologies de communication Chevalier dans l'Ordre national du Mérite

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s