FRFAM.COM >> Science >> Technologie

Sur qui écrasez-vous :la personne âgée ou l'enfant ?

Les voitures autonomes devront faire des choix dévastateurs en cas d'accidents inévitables. Les scientifiques recherchent des règles universelles.

Un homme, une femme médecin, deux criminels et un manager sont ensemble dans la voiture. C'est peut-être le début d'une blague quelque peu étrange, mais c'est un scénario dans une expérience de pensée qu'une équipe internationale de scientifiques a présentée à des millions de personnes dans le monde. Les freins de la voiture sont cassés. Si la voiture continue tout droit, elle heurte un obstacle, entraînant la mort de tous les occupants. Ou la voiture peut faire une embardée, mais tue ensuite les piétons qui traversent. Que doit faire la voiture ? Dans la revue Nature les scientifiques analysent les choix que font les sujets de test de plus d'une centaine de pays.

Machine morale

Dans différents scénarios sur le site The Moral Machine, des scientifiques du Massachusetts Institute of Technology (MIT) américain font varier les occupants et les piétons qui traversent la route :humain ou animal, femme ou homme, jeune ou vieux, statut social élevé ou bas. La situation de la circulation varie également :il arrive que des piétons ignorent un feu rouge. L'objectif :rechercher des règles universelles que les voitures autonomes pourraient suivre.

Sur qui écrasez-vous :la personne âgée ou l enfant ?

Depuis le lancement du site Web en juin 2016, des millions de personnes ont passé le test, ce qui a abouti à près de 40 millions de décisions. Trois préférences presque universelles déployées. Les gens priment sur les animaux (dans certains scénarios, un chien ou un chat traverse la rue). Il vaut mieux sauver plus de vies que sauver moins de vies. Et les enfants priment sur les personnes âgées.

Des personnes de 233 pays ont participé au test. Sur la base de 130 pays comptant au moins 100 participants, les scientifiques ont examiné la répartition géographique des préférences. Ceux-ci forment trois groupes « moraux ». Le cluster occidental comprend les États-Unis et la plupart des pays européens. Le cluster oriental contient de nombreux pays d'Asie et du Moyen-Orient, et le cluster sud contient principalement des pays d'Amérique centrale et d'Amérique du Sud.

La préférence pour sauver de jeunes vies est moins prononcée dans le groupe oriental et plus élevée dans le groupe méridional. Il en va de même pour la préférence pour sauver les personnes de statut social élevé. La conviction que l'humain prime sur l'animal est moins forte dans le cluster Sud.

Traversée illégale

Les scientifiques ont également trouvé des liens avec les différences culturelles et économiques entre les pays. Dans les cultures fortement individualisées, la préférence pour sauver plus plutôt que moins de vies est plus prononcée. Dans les cultures qui accordent plus d'importance à la communauté et où le respect des personnes âgées est très apprécié, les participants accordent moins d'importance au fait de sauver de jeunes vies.

Dans les pays plus riches (avec un produit national brut plus élevé), avec des règles et des institutions qui fonctionnent bien, il y a moins de compassion pour ceux qui traversent la rue illégalement. Dans les pays avec plus d'inégalités économiques, les sujets traitent également les individus de statut différent moins comme des égaux dans l'expérience. La préférence à préférer la vie des femmes à celle des hommes est d'autant plus prononcée que l'écart entre l'espérance de vie des hommes et celle des femmes est plus étroit.

En Belgique, la préférence pour sauver les piétons semble être très prononcée – dans seulement sept pays, elle est encore plus grande. Les Pays-Bas occupent ici la 25e place, les Néerlandais étant légèrement plus enclins à sauver ceux qui respectent la loi (19 contre 31).

Je préfère en tuer plus

Qu'est-ce qu'on est censé faire avec ça maintenant ? "La leçon la plus importante est qu'une tentative de programmer des décisions morales dans des véhicules autonomes rencontrera divers degrés de résistance dans différents pays", a déclaré le chercheur Edmond Awad (MIT) par e-mail.

Techniquement, il n'est pas si difficile de varier ces décisions selon les régions, voire de laisser le choix à l'utilisateur, pense Jan Broersen, qui étudie l'éthique et l'intelligence artificielle à l'université d'Utrecht. "Vous pouvez lier un algorithme au GPS ou créer un bouton avec lequel l'utilisateur peut saisir ses préférences."

'Les occupants choisiront leur propre vie. Peut-être vaut-il mieux que d'autres fassent ces choix.

« Mais devrions-nous laisser ce genre de préférences au propriétaire de la voiture ? », se demande Broersen. "Il me semble par exemple assez idiot que quelqu'un puisse opter pour 'préférer tuer plus'." Broersen émet également des réserves sur la pertinence pratique des expériences de pensée, 'respectivement des cas marginaux'. « Dans un premier temps, un arbitrage devra être fait entre la vie des occupants et celle des autres usagers de la route. Ensuite, nous savons ce que les occupants choisiront. Peut-être vaut-il mieux que les autres fassent ces choix. »

Contre-intuitif

Il est moins clair sur quoi ces choix devraient alors se fonder. Un comité d'experts allemands a déjà tenté de formuler des règles. L'une d'elles stipule qu'en cas d'accident inévitable, aucune distinction ne peut être faite en fonction de l'âge, du sexe, des caractéristiques physiques ou mentales. Exactement ce que font les participants à l'expérience Moral Machine. "Selon l'éthique du philosophe allemand Immanuel Kant, nous ne devrions pas compter avec des vies", déclare Broersen. "C'est parfois contre-intuitif. Mais que quelque chose soit bien ou mal, selon la plupart des philosophes, ne dépend pas non plus de ce que pense la majorité des gens.'

Selon Broersen, nous aurons besoin d'un mélange d'éthique kantienne et d'une éthique pragmatique, basée sur les règles que vous mesurez dans la société. "Mais personne ne sait encore comment faire ça. Car que choisissez-vous si les deux se contredisent ?'

Les scientifiques américains eux-mêmes estiment que leur enquête ne doit pas simplement servir de base aux décisions des véhicules autonomes. "Ils ne doivent pas être adaptés aux souhaits du public", déclare Awad. « Certainement pas s'ils sont problématiques. Notre recherche est un moyen d'impliquer les gens dans ces décisions. Les résultats fournissent aux experts un aperçu de ce qui se passe dans la population et des réactions auxquelles ils peuvent s'attendre.'


[]