Sacrifier une personne pour en sauver dix ? Dilemme éthique
vieux comme le monde… qui devra être résolu pour que les voitures sans conducteur conquièrent l'espace public.


Foncer dans un mur pour se détourner d'un groupe de piéton relève davantage du réflexe que d'une décision morale mûrement réfléchie. Mais pour que les voitures autonomes ne soient pas prises dans de tels dilemmes dont une étude a déjà montré en 2014 qu'elles pourraient être incapables de les trancher, il faudra paramétrer leurs choix à l'avance. La morale utilitariste, qui privilégie toujours le bien public (ici, pour simplifier, le nombre de vies sauvées) pourrait alors être d'un grand secours: la voiture autonome serait programmée pour sauver le maximum de vie, quitte à tuer son (ou ses) passager(s).
Lire la suite ici
N.D.L.R
Ceci n'est pas de la science fiction ! Dans 10 ans, peut être avant, la plupart des véhicules seront automatisés et ce problème devra être résolu. Il le sera certainement, mais je doute qu'on nous demande notre avis. Ce sera donc évidemment la morale utilitariste, qui privilégie toujours le bien public, qui sera privilégiée.
Donc, la réponse à la question posée par cet article sera vraisemblablement : oui, les voitures automatiques seront programmées pour nous tuer. Si cela peut sauver d'autres vies humaines.