Magazine Ebusiness

IA : « Les règles de la guerre juste ne sont pas facilement transposables dans une machine »

Publié le 05 janvier 2016 par Pnordey @latelier

Le chercheur Jean-Gabriel Ganascia revient sur la notion de conscience chez les robots et l’adéquation d’engins militaires autonomes sur les champs de bataille modernes. Entretien.

Jean-Gabriel Ganascia est l’un des grands spécialistes français de l’intelligence artificielle. Il officie en tant que chercheur, au laboratoire d’informatique de Paris VI, le LIP6.

Avec lui, on poursuit notre réflexion sur la possibilité d’une conscience chez les robots, revient sur le fantasme des robots tueurs, et les écueils réels – ou pas, que pourraient représenter des engins autonomes militaires dont on laisserait la bride au cou.

Entretien.

Votre confrère Selmer Bringsjord, dont nous avons relaté l’expérimentation, travaille à donner une « conscience » à nos amis robots. Est-ce oeuvre possible ?

Jean-Gabriel Ganascia : Ça dépend ce qu’on appelle une âme. Et les philosophes, depuis longtemps, se posent cette question. Aristote, par exemple, dans son traité De Anima explique ce qu’est pour lui une âme.

Aujourd'hui, il y a trois façons d’envisager l’âme pour un robot. Il faut se rappeler que c’est l’âme, au sens antique et non pas chrétien, soit au sens d’une conscience. C'est-à-dire, quel est le souffle qui fera vivre ce robot ?

Une âme serait aussi le fait de prêter de l’extérieur un souffle au robot. C'est ce qu’on appelle la conscience existentielle. Il s’agit là d’une forme d’animisme, au sens où on prête une âme aux objets. Et ça, on le fait tous les jours. D’un téléphone portable, on dit régulièrement qu’il sait telle ou telle chose. Et c’est comme ça qu’on maîtrise les machines. On essaie de concevoir des machines qui échangent avec nous. La plupart des interfaces homme-machine sont aujourd’hui basées sur cette idée-là. C’est d’ailleurs ce qu’on appelle affective computing, le calcul des émotions.

A savoir qu’on donne à un robot tous les traits et apprêts qui induiraient qu’il est ému, qu’il éprouve un sentiment. Pour autant, il ne l’éprouve pas vraiment.

A terme, pourraient-ils « ressentir » vraiment ces robots ?

Ca, on n’en sait rien. Et quelle serait la nature de ces émotions ? Nous, chercheurs, pensons que nos émotions sont liées à des besoins physiologiques. Si quelque chose rend content, on suppose que c’est bon. Pour un robot, c’est plus compliqué. On imagine que si les robots éprouvent des émotions, ce ne seraient pas les mêmes que celles que nous éprouvons nous-mêmes. Ca ne nous servirait pas à grand-chose de savoir que le robot éprouve une certaine satisfaction.

Enfin, il y a une troisième forme de conscience qui est liée à ce qu’on appelle la réflexion. C'est-à-dire, le retour sur soi, le fait de se regarder en train d’agir pour améliorer son comportement. Et là, les machines pourraient être capables de saisir ce qu’elles sont en train de faire, pour essayer de mieux les analyser. Voilà une troisième étape de réflexion, encore plus difficile à mettre en œuvre, mais sur laquelle un certain nombre de chercheurs travaillent.

Cet été, on a vu éclater un débat autour d’un manifeste signé par non moins qu’Elon Musk, Stephen Hawking, pointant les dangers des robots autonomes de guerre. Cette idée du robot, qui pourrait se retourner contre son créateur, n’est pas nouvelle. On peut la retrouver dans certaines oeuvres de science-fiction. 

Oui, l’idée fait froid dans le dos. La machine, créature de l’homme, qui se révolterait. Mais avant même que les robots existent, cette idée était déjà présente. Elle est dans le mythe du Golem qui est une créature qui se retourne contre l’homme.

Pour revenir au manifeste, il faut prendre en considération le fait qu’il a d’abord été rédigé et signé, d’abord par des chercheurs en intelligence artificielle lors de la conférence internationale de l’intelligence artificielle, en Argentine. Et ce qui est pointé est l’utilisation du robot dans le domaine militaire.

Il existe aujourd’hui quantité de techniques d’intelligence artificielle sur le terrain. Par exemple, des systèmes de déminage, qui précèdent de façon autonome les soldats, pour s’assurer qu’il n’y ait pas de danger. Ca sauve des vies humaines.

Là, où ça peut poser problème, c’est lorsqu’on a affaire à des engins autonomes. Ces drones sont autonomes dans leur mouvement, pas leur action. C’est un humain qui décidera à 3000 km de tirer.

Ce qui est interrogé aujourd’hui est la crainte qu’avec les progrès de l’intelligence artificielle, il risque d’y avoir des machines capables techniquement de décider de façon autonome de tirer. Ce qui change tout.

Ca pose toute la question de la définition de la cible, de l’ennemi.

De l’autre, des roboticiens déclarent que le robot soldat pourrait être plus éthique que l’homme, parce qu’il ne perdra pas son sang froid et agira uniquement, en utilisant les règles de la guerre juste. Le problème est que ces règles de la guerre juste ne sont pas facilement transposables dans une machine.

La première, la règle de discrimination désigne la capacité de distinguer un civil d’un militaire. Et vous pouvez imaginer à quel point c’est délicat aujourd’hui, surtout dans les guerres asymétriques, parce que les gens n’ont pas d’uniforme. La deuxième est le principe de proportionnalité, à savoir comment imaginer que la réponse soit proportionnelle à l’attaquant. Pour des hommes, la tâche n’est pas aisée. Je vous laisse juger pour une machine.

On est peut-être à l’an 0 de l’intelligence artificielle, du moins, au tout début de son histoire. A votre avis, dans combien de dizaines d’années, se dira-t-on que le robot aura un semblant d’ « intelligence » ?

Je ne suis pas sûr que nous ne soyons qu’à l’an 0. C’est une discipline qui a transformé le monde. On oublie trop souvent que le web est fondé sur un hypertexte, un modèle de mémoire, développé par des techniques d’intelligence artificielle. Les moteurs de recherche sont liés à des techniques d’intelligence artificielle. Le téléphone portable également.

L’intelligence artificielle transforme le monde. Et je crois, et c’est le plus enthousiasmant, que cette discipline aide à être aussi plus intelligent. Plus que nous déposséder de nos propres capacités, elle permet, à mon sens, à l’homme de mieux comprendre et d’aller plus loin.

Pour approfondir le sujet :

IA : « Les règles de la guerre juste ne sont pas facilement transposables dans une machine »

Les robots pourront-ils un jour avoir une conscience ?

IA : « Les règles de la guerre juste ne sont pas facilement transposables dans une machine »

Robotique : "Il faut réfléchir, dès aujourd'hui, à des repères éducatifs et législatifs"


Retour à La Une de Logo Paperblog

A propos de l’auteur


Pnordey 18702 partages Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte