Les nouvelles sur l'intelligence artificielle suscitent généralement autant d'enthousiasme que d'anxiété. Ces sentiments mitigés existent même parmi les chercheurs en IA, selon une enquête à grande échelle.
L'intelligence artificielle s'est avérée être un buzz en 2018. Il semble que ce ne sera pas différent en 2019 et dans les années à venir. L'IA est une technologie largement applicable et perturbatrice qui peut radicalement transformer la société dans son ensemble, tout comme la voiture, Internet et la communication mobile l'ont fait auparavant.
Faire quelque chose soi-même sans IA devient impossible
Mais est-ce que cela se passe dans le bon sens ou dans le mauvais sens ? C'est une question qui revient remarquablement souvent. En tant que technologie, l'IA en est encore à ses balbutiements, et pourtant de nombreuses questions se posent déjà sur les conséquences pour l'homme. Même les experts travaillant sur le développement de l'IA sont inquiets dans une certaine mesure. C'est ce que révèle une étude de Pew Research. Le groupe de réflexion américain a interrogé près d'un millier de personnes sur leur sentiment à propos de l'IA. Tous consultés sont impliqués dans la création de l'intelligence artificielle, en tant que chercheur, développeur, homme politique ou homme d'affaires. Malgré – ou peut-être à cause de – leur engagement, les experts interrogés semblent prédire à la fois des conséquences positives et négatives.
« L'IA améliorera-t-elle les humains ? » Il était déjà clair que la réponse à cette question n'est pas un « oui » définitif. Bien connues sont l'interview du physicien Stephen Hawking dans laquelle il décrit l'intelligence artificielle comme "potentiellement dangereuse" et les déclarations exagérées du PDG de Tesla, Elon Musk. Par exemple, Musk pense que la course à l'IA ultime peut provoquer la Troisième Guerre mondiale.
Pour être clair :Hawking et Musk parlent tous deux d'une soi-disant « IA forte » ou d'une « intelligence artificielle généralisée ». Ou, en d'autres termes :un ordinateur qui peut penser et apprendre par lui-même. C'est différent des soi-disant systèmes experts avec des routines d'auto-apprentissage qui font quelque chose de très spécifique. Pensez, par exemple, au logiciel d'une Tesla qui permet à la voiture de conduire de manière (relativement) autonome ou aux routines d'intelligence artificielle qui reconnaissent les visages sur les caméras de sécurité d'un aéroport.
Parce que le terme IA est un battage médiatique, il est utilisé pour toutes ces choses. Ce qui n'est pas entièrement injustifié, car les systèmes experts peuvent effectivement être considérés comme une forme d'intelligence artificielle. Cela brouille un peu la discussion. Les spectres de Hawking et co concernent moins les systèmes experts; il y a peu de chance qu'un logiciel spécialisé dans une voiture trouve un moyen de déclencher une guerre nucléaire.
Alors, que révèle l'enquête de Pew Research auprès des experts en IA ? D'abord, qu'ils ne craignent pas forcément ce grand cauchemar d'un ordinateur pensant qui décide de se débarrasser de la race humaine, comme Skynet des films Terminator. Mais aussi qu'ils s'inquiètent des conséquences à long terme de l'IA sur l'être humain.
Liste sinistre, ça. Pourtant, les experts en IA ne sont pas entièrement mélancoliques. Lorsqu'on leur a demandé s'ils pensaient que les humains seraient mieux lotis en 2030 grâce à l'IA, 63 % des personnes interrogées ont répondu qu'elles croyaient en une vision positive de l'avenir. L'intelligence artificielle présente de nombreux avantages, pensent la grande majorité.
Les systèmes experts améliorent la qualité de vie dans le domaine de la santé et des soins aux personnes âgées. Par exemple, une IA peut interpréter des indicateurs et diagnostiquer un patient plus rapidement. Cela permettrait d'économiser beaucoup d'argent et d'augmenter les chances de survie, car les thérapies peuvent commencer plus tôt. Un certain nombre de répondants pensent également que l'intelligence artificielle basée sur des données à grande échelle peut améliorer la santé publique, par exemple en intervenant dans la nutrition.
Les logiciels intelligents dans les voitures, les bâtiments et les communautés permettent d'économiser du temps, de l'argent et même des vies. "D'ici 2030, nous serons obligés de travailler avec des machines", pense Barry Chudakov, chercheur chez Sertain Research. "Ce sera le seul moyen de faire face aux effets de grandes 'accélérations' simultanées :le progrès technologique, la mondialisation, le changement climatique et la migration mondiale qui l'accompagne."
Nous ne pouvons profiter de ces avantages que si nous tenons compte des dangers. Dans l'enquête, Pew Research a demandé aux experts s'ils voyaient des moyens d'atténuer les inconvénients de l'IA. La bonne nouvelle est que beaucoup voient des solutions. La moins bonne nouvelle, c'est qu'ils vont demander des efforts particulièrement importants.
Par exemple, les chercheurs pensent que les systèmes économiques et politiques doivent s'organiser différemment pour compenser les pertes d'emplois. S'ils ne le font pas, ils ne peuvent pas empêcher une grande partie « perdue » de la société de traverser la vie sans but. Encore plus difficile est que l'humanité doit apprendre à travailler ensemble au-delà des frontières et des intérêts pour faire face à l'intelligence artificielle à l'unisson. Parce que cela nécessitera une collaboration mondiale comme le monde n'en a jamais vu auparavant.
Pour empêcher les intelligences artificielles de prendre des décisions froides et inhumaines, il faut leur donner un système de valeurs et même un sentiment d'empathie. Par exemple, une IA exploitant un système de caméra à reconnaissance faciale doit savoir quelles décisions et pratiques affectent la vie privée. Si un politicien peu scrupuleux demande alors de suivre des civils innocents, le système peut refuser d'exécuter cette demande.
Selon les experts interrogés, il faut une attitude 'moonshot' pour développer cela :les programmeurs devront travailler de manière très ambitieuse, car doter les IA d'un système de valeurs n'est en aucun cas une tâche facile. Et s'ils réussissent, quelqu'un doit encore trouver un moyen de réglementer et de certifier ces systèmes d'empathie. Il s'agit de s'assurer qu'une IA obtient les bonnes valeurs de ses constructeurs. Ou comme le dit Erik Brynjolfsson, directeur de l'Initiative du MIT sur l'économie numérique :"Nous devons travailler de manière agressive pour nous assurer que la technologie s'aligne sur nos valeurs pacifiques."