Si un robot tue quelqu'un quid des lois de la robotique d'Asimov ?

Publié le 23 août 2009 par Actualitté
Asimov avait posé les bases de ce qui pourrait être le mode de fonctionnement des robots du futur, avec ces trois règles immuables et appliquées aux robots positroniques :
  • Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu'un être humain soit exposé au danger.
  • Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
  • Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la seconde loi.
Or, la loi aujourd'hui condamne le meurtre d'un humain par un autre. Mais si une machine venait à ne pas se conformer aux lois d'Asimov ? Mieux, si une machine venait à tuer un humain, qui serait responsable ?

La très anglaise Royal Academy of Engineering a publié une série de réflexion sur ce point, se demandant tout d'abord comment les robots doivent être appréhendés. S'ils sont des « personnes machines », alors ils peuvent être accusés de fautes en cas d'accident, tout comme un personne morale peut être responsable lors d'une défaillance technique.
Alors, si une machine tue, est-elle responsable ? Le rapport tente de comprendre les enjeux sur 19 pages de commentaires et se heurte à un frein social : il n'est pas évident à concevoir qu'une machine puisse être responsable de nos jours. Mais dans ce cas, est-ce la main qui l'a conçue, cette machine, qu'il faut blâmer - ce qui équivaudrait à accuser un fabricant de couteaux de cuisine d'être un fabricant d'armes...
En outre, s'il existe un apprentissage pour ce robot, doit-on se tourner vers celui qui a programmé cette faculté à apprendre ? Ira-t-on également vers un code des procédures pour humains et un autre pour robot ?
« Nous devons vraiment commencer à nous préoccuper de ces questions », estime la RAE, pour qui elles viendront à se poser dans tous les cas. Des enjeux nouveaux pour me système judiciaire du XXIe siècle, qui pourraient inspirer de futurs chefs-d'oeuvre de la science-fiction ? « Si nous ne pouvons pas résoudre les questions portant sur la responsabilité, qui sera blamé en cas d'accident et qui doit être arrêté, nous nous priverons de l'avantage de pouvoir recourir à ces évolutions », estime Chris Elliott, avocat et ingénieur.