Une ambulance se précipite sur la route avec sa sirène hurlante. Toutes les voitures s'écartent, sauf une. Une voiture autonome ne reconnaît pas le son. Pour l'algorithme qu'il contrôle, l'ambulance équivaut à une grande voiture blanche ordinaire, telle qu'une camionnette de livraison.
Le scénario a été décrit l'année dernière dans une étude menée par des ingénieurs du Massachusetts Institute of Technology et de Microsoft. Pour le résoudre, les ingénieurs ont dû intervenir dans la formation par simulation donnée aux algorithmes d'apprentissage automatique avant de les télécharger sur le système d'une voiture autonome. Les participants humains devaient suivre la simulation et entrer manuellement lorsqu'ils voyaient une ambulance.
La recherche révèle deux vulnérabilités auxquelles l'IA doit faire face. D'une part, la voiture autonome était insuffisamment entraînée. En revanche, les capteurs intégrés à la voiture peuvent chacun détecter des stimuli – visuels et auditifs – mais ne les relient pas entre eux. Ce sont des scénarios improbables que nous devons prendre en compte lors du développement de l'intelligence artificielle, car une petite erreur peut rapidement causer un gros problème.
De tels scénarios improbables rendent la tâche très complexe de programmer l'intelligence artificielle. Parce que l'IA est encore relativement jeune, il existe de nombreuses vulnérabilités, et elles sont très diverses. De plus, l'IA est sujette à des erreurs qui sont d'une nature différente de celles que nous commettons habituellement en tant qu'humains. Les programmeurs doivent donc penser différemment.
Pour pouvoir déterminer où les choses peuvent mal tourner avec l'IA, vous devez savoir comment l'intelligence artificielle est enseignée. Après tout, l'IA n'a pas de cerveau avec des neurones. Il n'apprend pas nécessairement des tâches comme marcher ou utiliser le langage de la même manière que nous.
"Il existe à peu près trois méthodes pour enseigner l'intelligence artificielle", explique l'experte en intelligence artificielle Mieke De Ketelaere (imec). Une première méthode d'apprentissage est l'apprentissage supervisé. Les données sont transmises à un algorithme sous supervision humaine. Cet algorithme en tire alors des leçons. "Si vous montrez des centaines de photos de chats différents, l'IA apprend à quoi ressemble un chat et comment il peut le reconnaître à l'avenir."
L'intelligence artificielle apprend également sans supervision. "Comparez cela avec la façon dont les tout-petits apprennent à reconnaître les formes", explique De Ketelaere. « Par exemple, l'animateur leur donne une feuille de papier avec des cercles, des triangles, des carrés, etc. Par exemple, en colorant tous les triangles en rouge, l'enfant apprend à distinguer. Cela se produit en partie indépendamment, sans que le maître ou l'enseignant ne regarde toujours par-dessus son épaule.'
'L'IA est un peu comme un tout-petit ou un enfant d'âge préscolaire, mais en termes d'empathie, le système ne peut pas mesurer jusqu'à un enfant de deux ans' Expert en IA Mieke De Ketelaere (imec)
Enfin, il y a l'apprentissage renforcé. Le système apprend en étant récompensé lorsqu'il accomplit bien une tâche. "Cela implique intrinsèquement des essais et des erreurs."
Ces méthodes d'apprentissage semblent plus évidentes qu'elles ne le sont. De plus, l'intelligence artificielle n'est pas au niveau d'un humain, pas même à celui d'un tout-petit. "L'IA ressemble dans une certaine mesure à un tout-petit ou à un enfant d'âge préscolaire, mais en termes d'empathie, le système ne peut pas être à la hauteur d'un enfant de deux ans. Il lui manque également une capacité de raisonnement simple », déclare De Ketelaere.
"Et là où les enfants grandissent, l'IA reste bloquée à cet âge." De Ketelaere fait la comparaison avec un jeu de quatre d'affilée. "Un enfant de deux ans ne sait pas quoi faire. Un enfant de quatre ans sait placer quatre disques de la même couleur les uns à côté des autres, mais se met en colère lorsqu'il est contrecarré. Un enfant de six ans a déjà de bonnes capacités de raisonnement et peut jouer au jeu sans problème.'
Les méthodes d'apprentissage ne suffiront pas à mettre une voiture autonome sur la route. L'intelligence artificielle a aussi besoin de matériel pédagogique. Autrement dit :des données.
Par exemple, pour former un progiciel qui filtre les candidats, vous devez lui fournir des données. Les programmeurs l'obtiennent de la riche histoire de l'humanité. Mais c'est loin d'être rose. Les exemples de racisme et de discrimination ne manquent pas, et cela se reflète dans les données qui alimentent les algorithmes. Cela conduit à un comportement mal appris. L'algorithme est soumis à un biais cognitif dès le départ.
Les exemples d'algorithmes qui discriminent les femmes et les personnes à la peau foncée sont nombreux. "Tapez le terme de recherche 'PDG' sur Google Images, et vous verrez des hommes blancs en costume sur mesure", explique De Ketelaere.
Même si les données sont claires à première vue, le danger n'est pas passé. Les données sont souvent très dépendantes du contexte. Ils sont influencés par les cultures et les normes. "En Australie, par exemple, les valeurs de l'hypertension artérielle sont beaucoup plus basses qu'en Belgique", explique De Ketelaere. Un tensiomètre intelligent de bas recommanderait donc trop tôt des médicaments pour abaisser la tension artérielle.
Illustration ci-dessus :résultats de recherche "PDG" sur Google Images.
'Nous voulons des résultats immédiats. Ce faisant, on perd de vue les marges d'erreur'
Un problème supplémentaire est que l'intelligence artificielle est victime de son propre succès. Les gens attendent beaucoup de l'IA et refusent d'attendre que tout soit parfait. "Souvent, la phase de test est simplement sautée avec une nouvelle application", explique De Ketelaere. "Nous voulons des résultats immédiats - le temps de réponse obtenu par l'IA est extrêmement court. En conséquence, nous perdons de vue les marges d'erreur. Dans les systèmes où plusieurs algorithmes sont connectés, il y a un risque qu'un modèle incorrect corrompe un autre modèle correct. Nous appelons cela l'empoisonnement des modèles .'
Le corps humain a plusieurs sens. Les observations entrantes sont regroupées en un point final :le cerveau. Cela fonctionne bien. Il semble logique de construire l'IA de la même manière. Cependant, cela ne s'est pas produit jusqu'à présent.
Selon l'application pour laquelle elle est utilisée, l'intelligence artificielle est équipée de différents capteurs, chacun détectant séparément les stimuli. Un capteur indique à une voiture autonome la forme du véhicule derrière elle, tandis que l'autre peut signaler s'il détecte le son d'une sirène. Fusionner ces deux entrées et les interpréter dans leur intégralité ne semble pas encore arriver souvent. Cependant, cela rendrait un système d'IA beaucoup plus intelligent.
Les chercheurs travaillent sur des moyens de recréer numériquement les sens humains et de les faire converger dans un nœud central ressemblant à un cerveau. Selon De Ketelaere, de nombreux progrès sont actuellement réalisés à cet égard, mais tous les « sens » ne sont pas encore prêts. Jusque-là, l'apport humain, comme dans le scénario avec l'ambulance et la voiture autonome, restera essentiel.