FRFAM.COM >> Science >> Technologie

L'intelligence artificielle affecte notre humanité

Les nouvelles sur l'intelligence artificielle suscitent généralement autant d'enthousiasme que d'anxiété. Ces sentiments mitigés existent même parmi les chercheurs en IA, selon une enquête à grande échelle.

L'intelligence artificielle s'est avérée être un buzz en 2018. Il semble que ce ne sera pas différent en 2019 et dans les années à venir. L'IA est une technologie largement applicable et perturbatrice qui peut radicalement transformer la société dans son ensemble, tout comme la voiture, Internet et la communication mobile l'ont fait auparavant.

Faire quelque chose soi-même sans IA devient impossible

Mais est-ce que cela se passe dans le bon sens ou dans le mauvais sens ? C'est une question qui revient remarquablement souvent. En tant que technologie, l'IA en est encore à ses balbutiements, et pourtant de nombreuses questions se posent déjà sur les conséquences pour l'homme. Même les experts travaillant sur le développement de l'IA sont inquiets dans une certaine mesure. C'est ce que révèle une étude de Pew Research. Le groupe de réflexion américain a interrogé près d'un millier de personnes sur leur sentiment à propos de l'IA. Tous consultés sont impliqués dans la création de l'intelligence artificielle, en tant que chercheur, développeur, homme politique ou homme d'affaires. Malgré – ou peut-être à cause de – leur engagement, les experts interrogés semblent prédire à la fois des conséquences positives et négatives.

Pas de terminateur

« L'IA améliorera-t-elle les humains ? » Il était déjà clair que la réponse à cette question n'est pas un « oui » définitif. Bien connues sont l'interview du physicien Stephen Hawking dans laquelle il décrit l'intelligence artificielle comme "potentiellement dangereuse" et les déclarations exagérées du PDG de Tesla, Elon Musk. Par exemple, Musk pense que la course à l'IA ultime peut provoquer la Troisième Guerre mondiale.

Pour être clair :Hawking et Musk parlent tous deux d'une soi-disant « IA forte » ou d'une « intelligence artificielle généralisée ». Ou, en d'autres termes :un ordinateur qui peut penser et apprendre par lui-même. C'est différent des soi-disant systèmes experts avec des routines d'auto-apprentissage qui font quelque chose de très spécifique. Pensez, par exemple, au logiciel d'une Tesla qui permet à la voiture de conduire de manière (relativement) autonome ou aux routines d'intelligence artificielle qui reconnaissent les visages sur les caméras de sécurité d'un aéroport.

Parce que le terme IA est un battage médiatique, il est utilisé pour toutes ces choses. Ce qui n'est pas entièrement injustifié, car les systèmes experts peuvent effectivement être considérés comme une forme d'intelligence artificielle. Cela brouille un peu la discussion. Les spectres de Hawking et co concernent moins les systèmes experts; il y a peu de chance qu'un logiciel spécialisé dans une voiture trouve un moyen de déclencher une guerre nucléaire.

Alors, que révèle l'enquête de Pew Research auprès des experts en IA ? D'abord, qu'ils ne craignent pas forcément ce grand cauchemar d'un ordinateur pensant qui décide de se débarrasser de la race humaine, comme Skynet des films Terminator. Mais aussi qu'ils s'inquiètent des conséquences à long terme de l'IA sur l'être humain.

Les cinq principaux dangers perçus par les experts interrogés sont :

  1. L'homme risque de perdre une partie du contrôle et le droit à l'autodétermination. De plus en plus de décisions sont laissées à des processus automatisés, ce qui signifie que les citoyens perdent la capacité d'influencer une décision ou même de comprendre comment elle a été prise. Ce faisant, ils compromettent souvent la vie privée, peut-être sans la moindre protestation. « Jusqu'à présent, la commodité a pris le pas sur la confidentialité. Je pense que cela ne changera pas", pense le pionnier de l'Internet Michael M. Roberts.
  2. Étant donné que les algorithmes prennent leurs propres décisions, il existe un risque que les gens perdent leurs connaissances et leur initiative à long terme. Collaborer avec d'autres ou faire quelque chose sans l'aide d'une IA deviennent des tâches que la plupart ne peuvent plus gérer ou ne veulent plus.
  3. Bien qu'il existe un domaine en plein essor autour de l'éthique et de l'IA, il y a de fortes chances que les développeurs programment des boîtes noires ou des systèmes experts sans système de valeurs. Étant donné que ce seront principalement les grandes entreprises et les gouvernements qui exploiteront les IA, il y a un risque qu'ils utilisent à mauvais escient les données entrantes. Par exemple, un système d'IA qui utilise la reconnaissance faciale pour protéger une ville peut garder un œil sur les citoyens difficiles en même temps.
  4. De nombreux emplois sont menacés. "Une grande partie de la population perdra définitivement son emploi", a déclaré Amy Webb de l'Université de New York. Et oui, de nouveaux emplois peuvent être créés, mais il y en a d'autres qui sont perdus. Cela peut conduire à de véritables soulèvements populaires, dit-il.
  5. Le cinquième danger est décrit par les chercheurs comme le chaos. Cela correspond à ce que Hawking craignait, entre autres :des systèmes d'armes autonomes et des IA qui mènent une "guerre" contre certains groupes par le biais de fuites d'informations et de piratage. Que ce soit ou non dans le cadre d'une bataille entre opposants politiques. Il n'est pas non plus impossible que les cybercriminels utilisent des IA. De nombreuses vies sont en jeu dans un tel scénario. "Je m'attends à ce que d'ici 2030, nous utilisions régulièrement l'IA pour faire la guerre et tuer des gens, et le faire plus efficacement que jamais. Et parce que nous ne nous tuons pas, nous en tant que société nous en soucions moins", prévient Simon Biggs de l'Université d'Australie-Occidentale.

Coopération obligatoire

Liste sinistre, ça. Pourtant, les experts en IA ne sont pas entièrement mélancoliques. Lorsqu'on leur a demandé s'ils pensaient que les humains seraient mieux lotis en 2030 grâce à l'IA, 63 % des personnes interrogées ont répondu qu'elles croyaient en une vision positive de l'avenir. L'intelligence artificielle présente de nombreux avantages, pensent la grande majorité.

Les systèmes experts améliorent la qualité de vie dans le domaine de la santé et des soins aux personnes âgées. Par exemple, une IA peut interpréter des indicateurs et diagnostiquer un patient plus rapidement. Cela permettrait d'économiser beaucoup d'argent et d'augmenter les chances de survie, car les thérapies peuvent commencer plus tôt. Un certain nombre de répondants pensent également que l'intelligence artificielle basée sur des données à grande échelle peut améliorer la santé publique, par exemple en intervenant dans la nutrition.

Les logiciels intelligents dans les voitures, les bâtiments et les communautés permettent d'économiser du temps, de l'argent et même des vies. "D'ici 2030, nous serons obligés de travailler avec des machines", pense Barry Chudakov, chercheur chez Sertain Research. "Ce sera le seul moyen de faire face aux effets de grandes 'accélérations' simultanées :le progrès technologique, la mondialisation, le changement climatique et la migration mondiale qui l'accompagne."

Nous ne pouvons profiter de ces avantages que si nous tenons compte des dangers. Dans l'enquête, Pew Research a demandé aux experts s'ils voyaient des moyens d'atténuer les inconvénients de l'IA. La bonne nouvelle est que beaucoup voient des solutions. La moins bonne nouvelle, c'est qu'ils vont demander des efforts particulièrement importants.

Par exemple, les chercheurs pensent que les systèmes économiques et politiques doivent s'organiser différemment pour compenser les pertes d'emplois. S'ils ne le font pas, ils ne peuvent pas empêcher une grande partie « perdue » de la société de traverser la vie sans but. Encore plus difficile est que l'humanité doit apprendre à travailler ensemble au-delà des frontières et des intérêts pour faire face à l'intelligence artificielle à l'unisson. Parce que cela nécessitera une collaboration mondiale comme le monde n'en a jamais vu auparavant.

Pour empêcher les intelligences artificielles de prendre des décisions froides et inhumaines, il faut leur donner un système de valeurs et même un sentiment d'empathie. Par exemple, une IA exploitant un système de caméra à reconnaissance faciale doit savoir quelles décisions et pratiques affectent la vie privée. Si un politicien peu scrupuleux demande alors de suivre des civils innocents, le système peut refuser d'exécuter cette demande.

Selon les experts interrogés, il faut une attitude 'moonshot' pour développer cela :les programmeurs devront travailler de manière très ambitieuse, car doter les IA d'un système de valeurs n'est en aucun cas une tâche facile. Et s'ils réussissent, quelqu'un doit encore trouver un moyen de réglementer et de certifier ces systèmes d'empathie. Il s'agit de s'assurer qu'une IA obtient les bonnes valeurs de ses constructeurs. Ou comme le dit Erik Brynjolfsson, directeur de l'Initiative du MIT sur l'économie numérique :"Nous devons travailler de manière agressive pour nous assurer que la technologie s'aligne sur nos valeurs pacifiques."


[]