ANALYSE 
Mythes & réalités de l'intelligence artificielle
Des algorithmes suffisamment complexes peuvent-ils créer les conditions, chez la machine, d'une véritable intelligence ? Et si l'intelligence, au contraire, n'était pas réductible à ce qui est calculable ?   (25/11/2004)
Sciences & Informatique
Sommaire
  Sur le Web
Intelligence artificielle
(sur Wikipedia)
L'intelligence artificielle fascine : combien de temps reste-t-il avant que les machines soient douées de telles capacités de raisonnement qu'elles en viennent, non limitées comme les humains dans la puissance de calcul, à éprouver des émotions et élaborer les conditions d'un monde où elles n'auront plus besoin de nous ?

En pratique, on est bien sûr très loin du compte : si l'industrie logicielle est capable d'engendrer des ordinateurs rivalisant avec l'ex-champion du monde d'échecs Gary Kasparov, il s'agit bien moins "d'intelligence" que d'une capacité à analyser les possibilités multiples d'un coup en un temps record, inaccessible à l'humain. Ni les concepts (subjectifs ?) "d'intuition" ou même "d'élégance" n'entrent en jeu.

Plus près de nous, l'intelligence artificielle est présente, de façon souvent rudimentaire toutefois, dans nos jeux vidéos comme dans les "moteurs de règles" (lire l'article du 14/05/2003), à savoir ces composants logiciels qui gèrent des conditions adaptatives (gestion du trafic, règles de filtrage, orchestration des processus métiers...), en passant par l'analyse décisionnelle (lire notamment l'article sur les algorithmes génétiques), textuelle ou d'images (lire l'article correspondant) et le combat contre le spam.

En tout état de cause, les applications d'entreprise tirant profit des recherches autour de l'intelligence artificielle existent bel et bien. Mais de là à envisager un futur à la Matrix ou à la Philip K. Dick, il n'y a qu'un pas qui n'est pourtant pas si évident. Il existe en effet plusieurs points de vue sur l'intelligence artificielle (IA).

- un point de vue "fort" qui correspond à l'idée que, en principe, un ordinateur suffisamment bien programmé et puissant peut réaliser toute tâche "intelligente" réalisable par un humain ;

- un point de vue "faible" qui estime que les ordinateurs peuvent simuler l'intelligence à l'aide de leurs phénoménales capacités de calcul, mais qu'ils buteront toujours sur des activités pour lesquelles l'homme n'a pas besoin d'envisager toutes les possibilités pour sélectionner la meilleure (ainsi de la simple opération du déplacement : dans l'état actuel des choses, un robot mécanique type Aibo de Sony doit accomplir une batterie de tests compliqués pour éviter des obstacles ou atteindre un objet, opérations très "naturelles" et immédiate pour l'homme).

Le théorème de Gödel contre l'intelligence artificelle ?
Le point de vue fort a été abondamment critiqué, notamment par le mathématicien anglais Roger Penrose dans The Emperor's New Mind (1989) et Shadows of the Mind (1994). Pour Penrose, l'ordinateur est une machine qui exécute des algorithmes, donc lui est accessible toute opération qui soit traductible par un algorithme (c'est l'idée de calculabilité).

Or quiconque connait un peu les principes de l'algorithmie sait que certains programmes informatiques ne "finissent pas" (ne s'arrêtent jamais). Mais qu'est-ce que cela veut dire ? Que le problème adressé par l'algorithme est sans solution, ou bien que l'algorithme (à supposer qu'il ne comporte bien sûr pas d'erreur) est mal adapté à sa résolution ? C'est le point de départ du raisonnement théorique de Penrose, qui invoque en outre le fameux théorème d'incomplétude de Kurt Gödel (1906-1978).

Sans rentrer dans les détails, Gödel a démontré (il s'agit d'un théorème de logique) qu'on peut toujours construire, au sein d'un système formel comme l'arithmétique, des propositions vraies non démontrables, c'est-à-dire que les axiomes du système sont insuffisants pour avérer le caractère vrai de telles propositions, qui le sont pourtant par construction. Dit autrement (soient en termes informatiques) : il n'existe pas d'algorithme qui puisse permettre de décider si ces propositions sont vraies ou fausses.

Par exemple, il n'existe pas de programme qui prenne un autre programme en argument et qui renvoit "oui" si le programme en argument finit et "non" s'il ne finit pas.

Limitation passagère ou restriction fondamentale ?
Bien que cela paraisse éloigné de l'intelligence artificielle, Penrose conclut que les machines diffèrent fondamentalement des humains au sens où elles sont incapables de décider du caractère vrai de certaines propositions qui le sont néanmoins, ce dont l'homme est capable de se rendre compte (tout comme il est capable d'ajouter de nouveaux axiomes compatibles avec les précédents, au contraire d'une machine). Allant plus loin, il affirme alors que les opérations de la conscience humaine ne sont pas réductibles à l'exécution par les réseaux de neurones d'algorithmes aussi complexes soient-ils. Donc, le point de vue "fort" sur l'IA est un mauvais point de vue : les ordinateurs ne peuvent, en fonctionnant comme ils fonctionnent, atteindre à une intelligence semblable à celle de l'humain.

Penrose a bien sûr ses détracteurs, qui ont contesté ses propositions plaidant pour l'intervention, au sein du cerveau humain, de mécanismes basé sur la gravitation quantique, et qui expliquerait le caractère non réductible à l'algorithmie de l'intelligence. Son platonicisme (l'idée que les concepts mathématiques sont objectifs, peuplant un "monde des idées" distinct du monde sensible) est également pointé du doigt.

Toujours est-il que le terme "intelligence artificielle" est aujourd'hui appliqué bien plus (limitation passagère ou restriction fondamentale ?) à des méthodes d'optimisation, autoadaptatives dans une certaine mesure, et reposant sur des modèles connus (on peut citer encore le théorème de Bayes pour l'implémentation du principe d'inférence qui porte son nom et qui est est utilisé notamment pour le filtrage des pourriels...) qu'au surgissement d'une forme d'intuition au sein des machines.

Sciences & Informatique
Sommaire
  Sur le Web
Intelligence artificielle
(sur Wikipedia)
Alan Turing (1912-1954), qu'on peut considérer comme le fondateur des principes de l'informatique (avec ses machines abstraites et universelles), a montré que tout ce qui peut être calculé par des procédures algorithmiques peut l'être par une machine. La question de l'intelligence artificielle "forte" ou "faible" revient donc à la suivante : les neurones du cerveau obéissent-ils à des règles algorithmiques ou non ? Bref : les processus cognitifs réalisent-ils de simples calculs ?
Jérôme MORLON, JDN Solutions
 
Accueil | Haut de page
 
 

  Nouvelles offres d'emploi   sur Emploi Center
Auralog - Tellmemore | Publicis Modem | L'Internaute / Journal du Net / Copainsdavant | Isobar | MEDIASTAY

Voir un exemple

Voir un exemple

Voir un exemple

Voir un exemple

Voir un exemple

Toutes nos newsletters