010001000100100101000101
Exclusif
Malgré tous les avertissements que nous a livrés la science-fiction depuis plusieurs décennies, l'homme continue de transférer sans cesse plus de pouvoir entre les mains des machines autonomes qu'il conçoit.
Cette fois-ci, histoire d'être véritablement entendus, d'éminentes personnalités scientifiques, universitaires, philosophes et intellectuels ont décidé d'écrire directement à l'ONU. Certes symbolique, cette lettre a quand même de quoi inquiéter et en voici la substance...
Les IAs, le plus grand danger pour l'humanité à court terme?
Dès qu'une technologie est développée, les militaires y voient de nouvelles avenues pour faire la guerre. Ce fut le cas de la poudre et plus récemment du nucléaire et ce sera aussi bel et bien le cas avec la robotique.
Qu'elles soient américaine, britannique, russe, ou encore israélienne, les armées les plus financées du monde avouent désormais au grand jour qu'elles expérimentent des systèmes d'armes autonomes létales, lisez ici, robots capables de prendre la décision d'éliminer une cible humaine sans intervention externe. Bref, comme on peut s'en douter, les dérives, bogues et autres problèmes de communication ne peuvent que soulever un lot très légitime de questions.
C'est exactement ce que veulent souligner les auteurs d'une lettre ouverte envoyée tout dernièrement à l'ONU lors de l'ouverture de la Conférence internationale sur l'intelligence artificielle (IJCAI) à Buenos Aires.
On retrouve parmi les signataires de nombreuses personnes connues, telles que l'astrophysicien Stephen Hawking, le prix Nobel de physique Frank Wilczek, le cofondateur de Skype Jaan Tallinn, l'homme d'affaires Elon Musk, le professeur du MIT Noam Chomsky, ou encore le cofondateur d'Apple Steve Wozniak, mais aussi une pléthore de chercheurs en robotique et en informatique, très au fait des problématiques qu'imposent une mise en place sur les champs de bataille de "Terminators version 1.0". Vous pourrez, vous aussi, vous ajouter à cette liste qui ne cesse de s'allonger.
Faut-il se brûler pour comprendre?
C'est un peu en somme le raisonnement de cette missive qui soulève des questions très inquiétantes.
"La technologie de l'intelligence artificielle (AI) a atteint un point où le déploiement de ces systèmes est, pratiquement sinon légalement, faisable non dans les décennies, mais dans les années à venir", peut-on lire dans la lettre en question. "Contrairement aux armes nucléaires, elle ne nécessite pas de coûteux investissements ou des matières premières difficiles à obtenir [...] Ce ne sera qu'une question de temps avant qu'elles n'apparaissent sur le marché noir et entre les mains de terroristes, de dictateurs [...] et de seigneurs de la guerre voulant perpétrer un nettoyage ethnique, et cetera".
Bien entendu, il ne faut pas jeter le bébé avec l'eau du bain et les AI peuvent grandement faire progresser la science. Ils ajoutent d'ailleurs à ce sujet : "Nous croyons que l'AI a un énorme potentiel pour bénéficier à l'humanité sous de nombreuses formes et que cela devrait être le but de ces recherches. Commencer une course aux armes militaires intelligentes est une mauvaise idée et devrait être empêchée par un bannissement des armes offensives autonomes qui agiraient au-delà de tout contrôle humain conséquent."
Car l'autre problème de cette nouvelle technologie est bel et bien le déclenchement d'une nouvelle course aux armements. Alors que l'ONU s'évertue depuis plusieurs décennies à démilitariser certaines puissances, cette industrie en plein essor sera bien plus difficile à repérer que d'énormes centres d'appauvrissement d'uranium nécessaires à la mise sur pied d'un arsenal nucléaire (cf. les pourparlers avec l'Iran dernièrement).
Que faut-il craindre?
Comme d'habitude, dès qu'une technologie est développée, les militaires y voient de nouvelles avenues pour faire la guerre. Ce fut le cas de la poudre et plus récemment du nucléaire et ce sera aussi bel et bien le cas avec la robotique. La DARPA (Defense Advanced Research Projects Agency) américaine ne s'est d'ailleurs pas assise sur ses lauriers. En plus du risque de retrouver des robots sur les champs de bataille, il existe aussi un risque qu'ils se retrouvent sur le marché noir et surtout entre les mains de personnes mal intentionnées (et je ne parle pas des gouvernements uniquement). Comme pour les drones, de nombreuses questions éthiques ont été rapidement évacuées du débat. L'autre problème de taille est que ces appareils étant autonomes, ils ne requièrent pas des connaissances approfondies pour les faire fonctionner, rendant donc leur utilisation encore plus simple et accessible à tous.
Finalement, les Américains ont dernièrement annoncé avoir en leur possession leur première arme EMP (Electronic Magnetic Pulse) qui peut réduire à néant n'importe quel système électronique. Une véritable contre-mesure contre ces futurs robots tueurs. Comme d'habitude ce sont ceux qui occasionnent les problèmes qui en détiennent aussi scrupuleusement, et égoïstement (pour l'instant), les solutions. Vous ne rêvez pas. Ce n'est pas de la science-fiction, nous en sommes réellement rendus là...