Magazine Culture

Eugene Goostman a t-il passé avec succès le test de Turing ?

Publié le 21 juin 2014 par Jcheudin
Eugene Goostman a t-il passé avec succès le test de Turing ? Le test de Turing... Voilà une antiquité qui ressurgit du siècle dernier comme un fantôme avec toujours les mêmes fantasmes. Mettons tout de suite les choses au point. NON : Eugène Goostman n'a pas passé avec succès le fameux test de Turing, le Graal de l'IA classique. Certes, dans son article fondateur de l'IA, publié en 1950, Turing prédisait que dans les 50 ans, des machines pourraient être confondues avec un humain dans plus de 30% des cas lors de conversations de 5 minutes, mais ceci est une mauvaise interprétation de ce qu'il pensait être son "jeu de l'imitation". Rappelons-en brièvement le principe : ce test consiste à mettre en confrontation verbale un interrogateur avec un ordinateur et un humain au travers d'un clavier-écran de manière à ne pas voir ni entendre celui-qui répond. Si l’homme qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, alors on peut considérer que le logiciel de l’ordinateur est doté des mêmes capacités que l'esprit humain : intelligence, esprit, conscience... Voyons ce qu'il en est. Le principal problème consiste dans la durée du test. Même si l'on admet sa validité, alors celui-ci doit être beaucoup plus long. En outre, si l'on testait l'orthographe de quelqu'un par une dictée de 5 minutes et qu'il obtenait comme note 3 sur 10, on ne dirait certainement pas qu'il est bon. Pour être bon, il faudrait qu'il obtienne régulièrement plus de 8. C'est la même chose avec le test de Turing. Pour qu'une machine le passe avec succès, il faudrait qu'on ne puisse pas distinguer ses réponses de l'humain très régulièrement, c'est à dire dans plus de 80% (au moins) et sur une durée beaucoup plus longue. En fait, théoriquement, pour affirmer que les deux  "systèmes" sont équivalents, il faudrait un temps infiniment long : A = B si et seulement si T tend vers l'infini. En d'autres termes, seulement dans cette condition il nous serait strictement impossible de faire la différence. Le second problème vient de la pertinence du test lui-même. J'ai déjà écrit sur ce sujet et je ne suis pas le seul, car le test de Turing a été au centre des débats entre l'IA "forte" et l'IA "faible", entre les fonctionnalistes et les matérialistes depuis 1950. Je ne reparlerai donc pas ici de l'expérience de pensée de la "chambre chinoise" créée par le philosophe John Searle (lire mon dernier livre à ce sujet : Immortalité numérique). Mais en voici une autre, plus simple, que j'ai appelé "Le faux Van Gogh". Imaginez que nous ayons un peintre qui ait appris à reproduire à la perfection les toiles du maître. Les tableaux seraient si parfaits, que seuls quelques rares experts pourraient faire la différence. Pourrions-nous dire pour autant que le peintre pense comme Van Gogh ? Pourrait-on dire qu'il EST Van Gogh ? Évidemment non. Et si l'on remplace le peintre par un robot, cela ne change rien à l'affaire. Cela rejoint le thème également très discuté depuis des siècles de la réalité des mathématiques. Un phénomène modélisé par un jeu d'équations, qui permet de comprendre et prédire ses comportements, est-il équivalent au phénomène ? Les mathématiques existent-elles dans la réalité physique ? Personnellement, je répond une nouvelle fois : non. Pour conclure, je pense que le test de Turing a beaucoup vieilli. Il prend le problème de l'IA de la plus mauvaise manière qui soit : essayer de faire croire qu'une machine peut remplacer un humain sans que l'on puisse faire une quelconque différence. Cette approche est, de mon point de vue philosophiquement et éthiquement critiquable. L'IA est une formidable discipline, pleine de promesses, mais elle doit être au service de l'homme et non le remplacer.

Retour à La Une de Logo Paperblog

A propos de l’auteur


Jcheudin 27 partages Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte

Dossier Paperblog