FRFAM.COM >> Science >> Technologie

Robots empathiques : l'intelligence émotionnelle au cœur des machines du futur

Il est grand temps que les robots et les machines intelligentes apprennent à nous comprendre véritablement.

Robots empathiques : l intelligence émotionnelle au cœur des machines du futur

"Désolé, je ne t'ai pas entendu." Cette réponse pourrait marquer la première réaction empathique d'une machine vocale. À la fin des années 1990, SpeechWorks, basée à Boston, développait des logiciels pour les services clients automatisés, permettant d'utiliser ces expressions et bien d'autres. Depuis, nous nous sommes habitués à dialoguer avec les machines : presque chaque appel à un service d'assistance débute par une interaction homme-robot, et des centaines de millions de personnes portent un assistant vocal intelligent dans leur poche, comme Siri, capable de trouver un restaurant, d'appeler un ami ou de rechercher une chanson.

Cependant, les machines ne réagissent pas toujours comme nous l'espérons. Les logiciels de reconnaissance vocale ne sont pas infaillibles et peinent souvent à saisir le sens profond de nos questions. Elles ignorent les émotions, l'humour, le sarcasme ou l'ironie. À l'avenir, avec l'essor des interactions quotidiennes – aspirateurs intelligents ou robots infirmiers humanoïdes –, les machines devront dépasser la simple compréhension des mots : elles devront ressentir, "comprendre" et partager nos émotions humaines. En bref, développer de l'empathie.

Dans mon laboratoire à l'Université des sciences et technologies de Hong Kong (HKUST), où j'exerce depuis plus de 25 ans en reconnaissance vocale, nous développons précisément ces machines. Les robots empathiques deviendront des collaborateurs essentiels : amicaux, chaleureux, anticipant nos besoins physiques et émotionnels. Ils apprendront de nos interactions, amélioreront nos vies, rendront notre travail plus efficace, s'occuperont des personnes âgées, éduqueront les enfants et, dans des situations critiques, pourraient même se sacrifier pour nous sauver – l'empathie ultime.

Plusieurs robots émotionnels existent déjà, comme Pepper, humanoïde compact développé par Aldebaran Robotics (France) pour SoftBank Mobile (Japon), ou Jibo, assistant personnel de 3 kg conçu par une équipe incluant Roberto Pieraccini, ex-directeur des technologies de dialogue chez SpeechWorks. Le domaine est encore naissant, comparable à l'ère des machines à vapeur, mais les algorithmes avancés sont en pleine élaboration.

Logiciel empathique
Mon intérêt pour les robots empathiques est né il y a six ans, lorsque mon équipe a créé le premier équivalent chinois de Siri. Les réactions émotionnelles naturelles des utilisateurs face aux machines, et leur frustration face aux malentendus, m'ont révélé la clé : intégrer l'empathie dans les algorithmes de reconnaissance vocale, fruit de ma carrière.

Une machine intelligente est un système modulaire : un module traite la parole, un autre les images de sa caméra, etc. Un robot empathique possède un "cœur" : un module empathique analysant expressions faciales, marqueurs acoustiques vocaux et contenu sémantique pour détecter les sentiments et guider les réactions.

Comme dans les échanges humains – où nous décodons visage, corps, ton et mots –, ce module identifie ces signaux pour enseigner l'empathie aux machines via des algorithmes.

Nous avons formé nos machines non seulement aux caractéristiques acoustiques (vitesse accrue et ton montant pour la joie, voix plate pour le stress), mais aussi au sens des mots, imitant le cerveau humain. Techniques de traitement du signal et apprentissage automatique détectent stress, joie, peur, etc., comme un détecteur de mensonge.

Pour le stress négatif (tristesse), nous avons utilisé des enregistrements d'étudiants de l'institut, surnommant l'université "l'Université du stress de Hong Kong". Premier corpus multilingue (anglais, mandarin, cantonais) via 12 questions stressantes : après 10 heures de données, précision de 70 %, proche de l'humain.

Parallèlement, une équipe analysait l'ambiance musicale via caractéristiques sonores (énergie, fréquence, harmonie), sur 5 000 chansons étiquetées en 14 catégories. 14 classificateurs collaboratifs s'améliorent itérativement. Résultat : reconnaissance précise de l'humeur musicale. Sur cette base, avec d'anciens étudiants, nous avons fondé Ivo Technologies. Premier produit : Moodbox, système domestique adaptant musique et éclairage aux émotions.

Comprendre les intentions
Pour humour, sarcasme ou ironie, il faut combiner émotions acoustiques et sens sous-jacent.

Reconnaissance vocale mature depuis les années 1980 transcribe, mais ne comprend pas toujours. Dans un dialogue homme-machine, le processus diffère radicalement.

Nous adaptons des algorithmes d'analyse de sentiments en ligne : mots-clés (tristesse), répétitions, style (pauses pour doute). Pour la musique, N-grammes et POS-tags dérivent émotions des paroles, aidant Siri ou Google Traduction.

Une machine compare alors contenu et émotion : soupir + "Je suis content de travailler tout le week-end" = sarcasme probable. Elle contextualise : "J'ai faim" → sandwich à midi à la maison, ou restaurant en déplacement.

Zara la Supergirl
Début 2023, nous avons intégré nos modules en Zara, prototype virtuel sur PC, animé par un avatar.

Zara analyse visage (sexe, ethnie), langue (anglais, mandarin, français en apprentissage), pose questions personnelles pour imiter l'empathie via visage, voix et contenu. Après 5 minutes, évalue personnalité et sonde avis sur robots empathiques.

Basée sur machine learning, Zara s'améliore avec les interactions. Bientôt, version humanoïde.

L'ère des robots empathiques débute. Nos outils élémentaires évoluent ; Zara ne sera pas parfaite, mais l'humain non plus. Priorité : humaniser les machines. Elles seront gardiens, professeurs, amis – non suzerains.

[]