Les voitures autonomes devront affronter des choix déchirants lors d'accidents inevitables. Des scientifiques du MIT explorent des règles morales universelles, publiées dans Nature.
Un homme, une femme médecin, deux criminels et un manager se trouvent dans une voiture autonome. Freins défaillants : continuer tout droit tue les occupants, ou swerve tue des piétons. Que choisir ? Cette expérience de pensée, menée par une équipe internationale du MIT, a été soumise à des millions de personnes dans plus de 100 pays.
Sur le site The Moral Machine, les chercheurs du Massachusetts Institute of Technology (MIT) varient les profils : humains vs animaux, hommes vs femmes, jeunes vs personnes âgées, statut social élevé vs bas. Les piétons peuvent ignorer le feu rouge. Objectif : identifier des principes universels pour programmer les véhicules autonomes.

Lancé en juin 2016, le site a recueilli près de 40 millions de décisions de participants de 233 pays. Trois préférences émergent quasi universellement : humains avant animaux, plus de vies sauvées avant moins, et enfants prioritaires sur les personnes âgées.
Analyse de 130 pays (minimum 100 participants) révèle trois clusters moraux : occidental (États-Unis, Europe), oriental (Asie, Moyen-Orient), sud (Amérique latine). La priorité aux jeunes est moins marquée en Orient et plus au Sud. Idem pour le statut social élevé. La supériorité humaine sur animale est plus faible au Sud.
Des corrélations culturelles et économiques apparaissent. Dans les sociétés individualistes, priorité au plus grand nombre de vies. Dans les cultures communautaires valorisant les aînés, moins d'importance aux jeunes. Dans les pays riches avec institutions solides, moins de clémence pour piétons fautifs. Plus d'inégalités accentue les distinctions sociales. La préférence femmes vs hommes croît avec l'égalité d'espérance de vie.
En Belgique, forte préférence pour sauver les piétons (top 7 mondial). Les Pays-Bas 25e, légèrement plus tolérants envers les contrevenants (19 vs 31).
"Programmer des décisions morales universelles rencontrera des résistances variées par pays", estime Edmond Awad (MIT).
Jan Broersen (Université d'Utrecht, expert en éthique IA) note : programmable via GPS ou préférences utilisateur. "Mais laisser le choix au propriétaire ? Absurde si optant pour 'tuer plus'. Ces cas sont marginaux ; prioriser occupants vs autres usagers reste clé."
'Les occupants choisiront leur propre vie. Peut-être vaut-il mieux que d'autres fassent ces choix.'Jan Broersen
Un comité allemand préconise : pas de discrimination par âge, sexe, etc. Aligné sur Kant : toutes les vies égales. Broersen plaide un mix kantien et pragmatique sociétal, malgré contradictions potentielles.
Les auteurs insistent : non pas dicter par sondage, mais impliquer le public pour éclairer experts sur réactions sociétales.