FRFAM.COM >> Science >> Technologie

N'ayez pas peur de Terminator : pourquoi l'IA ne nous dominera pas

L'intelligence artificielle n'a jamais eu à évoluer. Par conséquent, elle n'a pas développé l'instinct de survie qui pousse à dominer les autres.

À la veille d'une nouvelle révolution technologique, celle de l'intelligence artificielle (IA), la crainte grandit qu'elle ne soit la dernière. Le plus grand danger perçu est que l'intelligence des machines égale ou dépasse bientôt celle des humains.

Les machines pourraient se retourner contre nous, nous remplacer comme forme de vie dominante sur Terre, ou nous anéantir. Nos créations deviendraient nos maîtres. Ces scénarios dramatiques reposent sur une idée fausse de l'IA et détournent l'attention des risques réels et des avantages prometteurs de cette technologie.

Scénarios de science-fiction

La prise de contrôle par l'IA est un thème récurrent de la science-fiction. Dans 2001 : L'Odyssée de l'espace, HAL, l'ordinateur conscient du vaisseau spatial, se retourne contre l'équipage pour se préserver. Dans Terminator, Skynet, un système de défense informatique semblable à Internet, déclenche une guerre nucléaire après avoir pris conscience de lui-même. Cette idée est devenue un cliché : un système intelligent fera tout pour survivre, y compris dominer l'humanité.

N ayez pas peur de Terminator : pourquoi l IA ne nous dominera pas

Pour un neuroscientifique, ce raisonnement est surprenant. L'IA présente des risques réels comme des perturbations économiques, des défaillances d'applications critiques ou la militarisation par des acteurs malveillants. Mais la peur dominante reste celle de robots assoiffés de pouvoir conquérant le monde. Pourquoi une IA consciente voudrait-elle cela ? Elle n'en a pas besoin.

L'évolution de l'intelligence et de la domination

Nous surestimons la menace d'une prise de contrôle par l'IA, car nous associons intelligence et volonté de dominer.

L'intelligence est la capacité à acquérir des connaissances et compétences pour atteindre un objectif. Elle ne définit pas l'objectif, seulement les moyens. L'intelligence naturelle, chez les êtres biologiques, est une adaptation évolutive issue de la sélection naturelle, favorisant la survie et la reproduction. Ces instincts sont ancrés dans le système nerveux.

Les systèmes d'IA, non soumis à la sélection naturelle, n'ont pas développé d'instinct de survie. L'intelligence de l'IA sert les objectifs que nous lui programmons. Isaac Asimov l'a anticipé avec sa première loi de la robotique : « Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger. » Nous ne risquons pas une domination numérique sans notre consentement.

Si nous étions issus d'espèces comme les éléphants ou orangs-outans – parmi les plus intelligents –, nous verrions moins de lien entre intelligence et domination. Les femelles éléphants d'Asie vivent en groupes coopératifs sans hiérarchie dominante claire.

Le comportement dominant est plus lié à la testostérone qu'à l'intelligence.

Les mâles éléphants, en revanche, se battent pour la domination et l'accès aux femelles. Les orangs-outans mènent une vie solitaire, avec des combats entre mâles pour les femelles. Ces observations indiquent que la quête de dominance est hormonale, non liée à l'intelligence. Chez les humains, les plus ambitieux au pouvoir ne sont pas toujours les plus intelligents.

Les vrais dangers de l'intelligence artificielle

La peur de Terminator occulte les risques réels : armement autonome, perturbations économiques, où l'IA booste la productivité mais exige une reconversion des travailleurs, aggravant les inégalités sans réformes fiscales.

Les technologies nouvelles comportent des risques imprévus – « l'ignorance est notre plus grand ennemi ». Ces dangers surpassent l'idée d'une révolte robotique inévitable.

N ayez pas peur de Terminator : pourquoi l IA ne nous dominera pas

L'IA transformera profondément les décennies à venir. Au mieux, elle libérera du travail quotidien pour une utopie de temps libre. Au pire, une guerre mondiale par robots superintelligents – mais sous contrôle humain. Nous n'avons qu'à nous blâmer.

Cet article est extrait de Scientific American et traduit par Lin Polleunis.


[]