L'Intelligence Artificielle
 
Eh bien non. Dans cette partie je ne parlerai pas du combat Deep Blue / Kasparov, de l’homme contre la machine. Je n’en parlerai pas, parce qu’il n’y a aucun problème, aucune crainte à avoir.
Défieriez-vous un bulldozer au bras de fer ? Non, et pourtant vous n’avez pas peur en longeant un chantier. Eh bien, l’Intelligence Artificielle, c’est pareil.
L’I.A. est une discipline passionnante, je le sais, j’y suis passé. C’est du raisonnement pur, voire de l’intelligence. On touche à la psychologie, à la neurologie, à tous les domaines qui pourraient nous permettre de copier l’intelligence humaine. Parce que c’est ça l’I. A. : copier ce que la nature a fait de plus complexe, notre cerveau et l’utilisation qu’on en fait.
Je crois que c’est Turing, le père de l’informatique et de l’I. A. qui a dès le début (les années 50), donné cette définition de l’I. A. : si un homme (voire une femme) est placé devant deux écrans, l’un contrôlé par un être humain (voire une femme), l’autre par un ordinateur (voire un Mac), alors l’ordinateur aura un comportement dit intelligent si l’observateur n’est pas capable de décider derrière quel écran se cache la machine.
Dès le début, l’I. A. a donc été définie par comparaison avec l’homme. Il n’y a pas d’intelligence de la machine en soi. Il n’y a qu’un « semblant d’intelligence», qui ne se manifeste que par rapport à l’homme. Je ne me lancerai pas dans une ontologie de l’I. A., mais les philosophes en herbe m’auront compris.
Mon propos n’est pas là. Je veux juste vous expliquer qu’en matière d’I. A., les espoirs d’hier sont les sujets des blagues d’aujourd’hui. Il suffit de lire les articles d’il y a dix ans (et je ne parle même pas de Science et Vie !) pour se rendre compte qu’on a beaucoup espéré, et beaucoup déchanté. Si on en croit les précurseurs de l’I. A. des années 50-60, on devrait être maintenant capables de lire, parler, comprendre ( ! ) par ordinateur. Et cela fait longtemps que les échecs devraient être le domaine des ordinateurs. Or, on s’est aperçu que le langage humain, bien que structuré par les grammaires qu’a modélisées Chomsky, est beaucoup plus complexe qu’il n’y paraissait. Il n’y a qu’à lire les tests des logiciels de traduction automatique pour s’en rendre compte. Aujourd’hui (97), à l’heure d’Internet, ces logiciels dégueulent un infâme galimatias. Le langage naturel utilise des tonnes de techniques, le contexte est indispensable à la compréhension, et ce contexte lui-même est modifié à son tour par le message qu’il porte ! Bref, ce n’est pas une simple grammaire du premier ordre !
On pourrait continuer avec les systèmes experts, auxquels on croyait dur comme fer il y a cinq ou six ans. Plus personne n’ose aujourd’hui baser un système sur cette notion. Les systèmes experts fonctionnent, mais pour un type de problème donné (dont le champ s’est considérablement restreint), et lorsque les réponses n’ont pas besoin d’être absolument sûres. Et les réseaux de neurones ? Leur principe en est génial : on ne s’intéresse pas à construire le réseau, on l’instruit. Mais ici encore, l’enthousiasme est tombé. L’application réseaux de neurones se réduit, et il arrivera un jour où l’on préférera une masse de calcul énorme pour arriver à un résultat plus fiable.
Pas mal de ces résultats récents vont dans ce sens : les algorithmes de nombreux problèmes sont dits NP-complets. C’est-à-dire qu’il n’est pas possible de résoudre ces problèmes en un temps raisonnable (en dessous de quelques millions d’années quelle que soit la puissance de la machine) de façon déterministe. Les seuls algorithmes efficaces doivent faire appel au hasard. Ils peuvent échouer, recommencer, etc.
Ces résultats sont là pour montrer que ce n’est pas en multipliant par cent ou mille la puissance des machines que l’on pourra tout faire. Rassurez-vous, on est loin d’être copiés. Quant à l’art...


(suite linéaire...)

(ou retour...)

 
Oh Oui ! vos réactions Ah Non !
Voir les autres textes de cet auteur - Envoyer ce texte à un ami
KaFkaïens Magazine - Tous droits réservés