Une voiture autonome devrait-elle prioriser la protection de ses occupants ? Cette question soulève un débat éthique complexe mais essentiel.

Près de 90 % des accidents routiers résultent d'erreurs humaines. Bien que confier le volant à un ordinateur dérange encore certains, cela promet une révolution en matière de sécurité routière. Les générations futures pourraient même nous considérer comme imprudents d'avoir conduit nous-mêmes. Mais que faire si une voiture autonome se retrouve dans une situation critique où la vie de ses occupants ou d'autres usagers est en jeu ? Doit-elle toujours privilégier ses passagers, même au prix de nombreuses victimes ?
En cas d'accident, un conducteur humain décide en une fraction de seconde. Le logiciel des voitures autonomes, lui, doit intégrer des directives précises pour ces scénarios rares mais critiques.
Pour anticiper les attentes des consommateurs, des "éthiciens expérimentaux" sondent l'opinion publique via des tests en ligne. Les résultats, publiés cette semaine dans la prestigieuse revue Science, révèlent une ambivalence : nous approuvons en théorie les véhicules qui maximisent le sauvetage de vies, quitte à sacrifier les occupants. Pourtant, nous préférerions tous une voiture protégeant en priorité nos proches, ce qui pose un défi commercial majeur.
Une régulation gouvernementale imposant la minimisation des victimes pourrait-elle résoudre cela ? Pas forcément : beaucoup refusent alors d'acheter une voiture autonome, risquant plus d'accidents qu'avec des modèles "égoïstes".
Évaluez ces dilemmes moraux et contribuez à la recherche sur moralmachine.mit.edu.
[]