Une ambulance fonce sur la route, sirène hurlante. Toutes les voitures s'écartent, sauf une : une voiture autonome qui ne perçoit pas le signal sonore. Pour son algorithme, l'ambulance n'est qu'une grande voiture blanche ordinaire, comme une camionnette de livraison.
Ce scénario, décrit l'année dernière dans une étude menée par des ingénieurs du MIT et de Microsoft, a nécessité une intervention humaine en phase de simulation. Les participants ont manuellement signalé les ambulances pour corriger l'algorithme avant son déploiement.
Cette recherche met en lévidence deux vulnérabilités majeures de l'IA : un entraînement insuffisant et une désynchronisation des capteurs (visuels et auditifs). Ces cas improbables doivent être anticipés, car une petite erreur peut avoir des conséquences graves.
Programmer une IA fiable est complexe en raison de sa jeunesse et de ses erreurs spécifiques, différentes de celles humaines. Les développeurs doivent adopter une pensée novatrice.
Pour anticiper les failles, comprendre l'enseignement de l'IA est essentiel. Contrairement au cerveau humain, elle repose sur des algorithmes sans neurones biologiques.
"Il existe trois principales méthodes pour former l'IA", explique Mieke De Ketelaere, experte en intelligence artificielle chez imec. L'apprentissage supervisé utilise des données annotées par des humains : montrer des centaines de photos de chats permet à l'IA de les reconnaître.
L'apprentissage non supervisé ressemble à l'exploration des tout-petits face à des formes géométriques : l'IA identifie des patterns seule.
'L'IA est un peu comme un tout-petit ou un enfant d'âge préscolaire, mais en termes d'empathie, le système ne peut pas mesurer jusqu'à un enfant de deux ans.' Expert en IA Mieke De Ketelaere (imec)
L'apprentissage par renforcement repose sur des récompenses et des essais-erreurs.
Ces méthodes sont prometteuses, mais l'IA reste limitée : comparable à un enfant d'âge préscolaire sans empathie ni raisonnement simple. "Et là où les enfants progressent, l'IA stagne", note De Ketelaere, illustrant avec le jeu du Connect Four.
Les méthodes d'apprentissage nécessitent des données de qualité. Or, l'histoire humaine regorge de biais (racisme, discrimination), qui se propagent aux algorithmes.
Exemples : algorithmes discriminants envers les femmes ou personnes à peau foncée. "Recherchez 'PDG' sur Google Images : hommes blancs en costume", observe De Ketelaere.
Même avec des données claires, le contexte culturel pose problème. En Australie, les seuils d'hypertension sont plus bas qu'en Belgique : un tensiomètre IA belge pourrait surmédicamenter.

Illustration : résultats de recherche "PDG" sur Google Images.
'Nous voulons des résultats immédiats. Ce faisant, on perd de vue les marges d'erreur.' Mieke De Ketelaere (imec)
L'enthousiasme pour l'IA conduit à sauter les tests. Un modèle erroné peut corrompre d'autres via l'empoisonnement des modèles.
Le cerveau humain intègre multisensoriellement les stimuli. L'IA actuelle utilise des capteurs isolés ; fusionner ces données dans un "cerveau" central la rendrait plus robuste.
Les chercheurs avancent sur la recreation numérique des sens humains. Chez imec, des progrès sont notables, mais l'apport humain reste crucial, comme pour l'ambulance.