Les robots tueurs se dressent contre l'Humanité

Par Memophis


  © Photo : SXC.hu

Les hommes doivent réfléchir à la manière de faire face à une possible révolte des machines tueuses, armées jusqu'aux dents. Les experts militaires mettent en garde La Voix de la Russie du danger des robots de combat. Selon les chercheurs, si leur fabrication ne sera pas contrôlée, on n’évitera pas l’apocalypse.

Des robots de guerre automatiques, des drones militaires et des machines armées automatisées sont utilisés dans le complexe militaro-industriel d’aujourd’hui. La plupart de ces dispositifs sont équipés d’une fonction «pilote automatique». Seuls les robots de combat ne sont pas équipés d’une telle fonction.

« Voici comment fonctionne le système d'intelligence d’un robot tueur: il doit se rendre à un point de coordonnées X et Y, y définir une cible par rayonnement thermique, et éliminer cette cible », explique Noel Sharkey, professeur de robotique et d'intelligence artificielle à l’Université de Sheffield (Royaume-Uni). « Mais il s’agit là d’un raisonnement « stupide ». Ce qui inquiète, c’est que ce robot ne va pas faire la distinction entre un soldat ennemi, un rebelle ou un civil ».

Les militaires et les scientifiques continuent à améliorer la précision des systèmes de combat automatisés. Selon eux, les robots tueurs aideront à réduire le nombre de soldats sur le terrain, en réduisant ainsi le nombre de tués.

« Les scientifiques ont mis au point le drone Falcon HTV-2, qui est actuellement en phase de test. Il s’agit d’un avion autoguidé qui peut s’accélérer jusqu’à une vitesse de 20.000 km/h. Le pilote ne peut se trouver aux commandes d’un tel avion, il ne survivrait par à une telle vitesse. D'ailleurs, l’homme aura du mal à se concentrer sur ce qu’il fait à une cette vitesse, il ne sera pas capable d’évaluer correctement la situation et réagir à des commandes », poursuit Sharkey.

Le Département de la Défense des États-Unis a rendu public un rapport sur les systèmes automatisés de combat, qui explique quelles sont les caractéristiques des armes autonomes et semi-autonomes. A la fin de ce rapport, une liste des lacunes et les vulnérabilités de ces armes est dressée. Cette liste est grande. Elle inclut notamment des aspects importants comme la possibilité de piratage informatique des systèmes de programmation, des interférences radio, des pièges radars, l’usurpation d'identité ou l'interception de signal crypté dans le but de piratage.

« Les technologies qui existent actuellement sont un pas vers l’utilisation des machines automatisées tueuses que l’homme ne sera plus en mesure de contrôler. Les algorithmes à l’intérieur du logiciel de ces machines sont tellement complexes que le système émet parfois des erreurs qu’un homme ne peut pas résoudre seul. Certains systèmes interagissent avec d'autres systèmes, et nous ne pouvons pas contrôler leur relation. Nous n’avons pas non plus le contrôle de la réaction à un signal d’erreur que le système reçoit », s’inquiète Mark Avrum Gubrud, docteur en physique et en mathématiques à l'Université de Princeton.

Avec tous le dangers d'utilisation de robots militaires autonomes, la décision d'y recourir appartient aux entreprises productrices d'armes militaires. L’organisation internationale de défense des Droits de l’Homme Human Rights Watch, en collaboration avec des experts de l’école juridique de l'Université de Harvard a publié un rapport intituléLosening Humanity : The Case Againts Killer Robots (Perte de l'humanité : une affaire contre les robots tueurs). Ce rapport traite de la nécessité d'arrêter l'utilisation, la production, et le développement des robots tueurs entièrement automatisés. Le rapport prône à élaborer des normes du droit international qui régulent la circulation de ces machines militaires dans le monde pour empêcher leur production et propagation incontrôlée.

« Je ne crois pas que les robots, peu importe à quel point sont développées leurs technologies, puissent suivre les normes internationales pour la protection des civils pendant les conflits armés »,considère Bonnie Docherty, experte sur les questions militaires de Human Rights Watch. « Rien ne pourra les retenir, même pas la pitié pour les civils, car ils ne la ressentent pas. D’ailleurs, il est difficile de prendre les actions des robots tueurs sous contrôle. Leurs actions aveugles peuvent porter atteinte à la politique de dissuasion par l'intimidation ».

Des spécialistes qualifiés et des technologies de pointe sont utilisés actuellement dans l’armement. Mais la plupart des chercheurs appellent les concepteurs à ne pas équiper les robots avec des armes et les utiliser plutôt à des fins pacifiques.

« Les robots doivent aider l’homme à faire face aux problèmes complexes qui sont une routine », conclut Gubrud. « Et les hommes doivent travailler avec les hommes. L’utilisation des robots dans des domaines où la vie de l’homme est menacée n’est pas justifiée. La vie coûte cher, et nous devons en prendre soin, qu’elle soit la nôtre ou celle d’autrui ».

Les experts sont d’accord sur le fait que les robots doivent être employés uniquement dans les sphères civiles, par exemple dans l’agriculture ou la médecine. Ces machines doivent aider les hommes et non pas les tuer. Sur le champ de bataille, le facteur humain joue par certains moments un rôle décisif. Quant au robot, il ne peut que copier le comportement de l’homme sans faire le choix de ce qui est « humain » ou non.