Plus un robot apparaît humain, plus il nous est difficile de sacrifier un robot pour des vies humaines. Du moins, dans certaines circonstances.
Si nous pensons qu'un robot a des émotions ou des pensées, nous sommes prêts à sauver un robot au prix de vies humaines. Cela ressort des recherches menées par la spécialiste du comportement Sari Nijssen de l'Université Radboud de Nimègue.
Les robots jouent un rôle de plus en plus important dans la société. Par exemple, des soldats américains organisent parfois des funérailles pour des robots qui ont été utilisés pour désamorcer des explosifs dans des zones de guerre. C'est pourquoi l'équipe de recherche s'est demandé quelles règles morales les gens appliquent réellement lorsqu'ils traitent avec des robots.
Pour étudier cela, l'équipe a présenté un certain nombre de dilemmes moraux à 55 sujets. On a dit aux participants qu'un groupe de gens ordinaires était en danger de mort. Ils pourraient sauver ce groupe, mais ils devraient sacrifier un individu. Cet individu pourrait être un humain, un robot utilisé uniquement comme une machine ou un robot qui ressemblait à un humain. Environ la moitié des sujets ont entendu une sorte d'histoire humaine sur l'individu avant de devoir faire un choix. Par exemple, sur les émotions qu'ils ont ressenties, les choses auxquelles ils ont pensé, les expériences qu'ils ont vécues ou leurs intentions. L'autre moitié n'a reçu qu'une description neutre de l'individu.
Si l'individu était un véritable être humain, les sujets choisiraient le moins probablement de sacrifier l'individu pour le groupe de personnes. Les sujets ont le plus souvent choisi de sacrifier le robot qui n'était utilisé comme machine que pour le groupe de gens ordinaires.
Cependant, si les participants avaient entendu l'histoire humaine sur les robots, ils étaient beaucoup moins susceptibles de choisir de sacrifier le robot pour le groupe commun de personnes que s'ils avaient entendu l'histoire neutre. Cela s'appliquait aux deux types de robots.
Les résultats montrent que si nous attribuons des qualités humaines aux robots, nous sommes moins susceptibles de sacrifier ces robots pour la vie d'un groupe de personnes ordinaires. Ces résultats difficiles pointent vers un nouveau dilemme moral, écrivent les chercheurs dans la revue Social Cognition † Si l'on considère qu'un robot a des sentiments, est-il moralement justifiable de le laisser désamorcer des explosifs ? C'est du fourrage pour d'autres recherches.