FRFAM.COM >> Science >> Technologie

Des robots qui apprennent comme des enfants

Les petits enfants développent des connaissances et des compétences à partir de zéro, pour ainsi dire. Les chercheurs expérimentent des algorithmes qui apprennent de la même manière. Cela fournit de nouvelles informations sur la façon dont le corps et l'esprit fonctionnent ensemble.

Dans le film de science-fiction Chappie (2015) l'ingénieur Deon fabrique une machine capable de penser et de ressentir. Il écrit un logiciel d'intelligence artificielle capable d'apprendre comme un enfant, et il le teste sur le robot Chappie. Au départ, "l'esprit" de Chappie est pratiquement vide - une tabula rasa , une page blanche. Mais en observant son environnement et en expérimentant les choses qui l'entourent, le robot acquiert progressivement des connaissances générales. Il apprend à comprendre le langage et développe toutes sortes de compétences complexes. C'est une performance dont même les systèmes d'intelligence artificielle les plus avancés ne sont pas encore capables.

Les machines apprennent à imiter les gestes de la main et à obéir à des commandes verbales simples, telles que "pointer" et "frapper"

Cependant, il existe déjà des machines qui surpassent les humains dans des domaines très spécifiques, par exemple aux échecs, aux quiz ou au jeu de société chinois Go. En octobre 2017, la société britannique DeepMind a présenté la dernière version d'un programme d'IA pour Go - appelé AlphaGo Zero. Contrairement à son prédécesseur AlphaGo, qui avait appris le jeu en "étudiant" un grand nombre de jeux joués par des personnes, AlphaGo Zero a acquis de l'expérience de manière totalement indépendante en jouant contre lui-même. Une réalisation remarquable. Bien qu'il existe de sérieuses limitations :le programme d'IA ne peut apprendre que des jeux avec des règles claires et doit jouer à des millions de jeux pour développer sa force de jeu surhumaine.

Et l'intelligence humaine ? Les enfants se développent dès leurs premiers jours de vie en explorant leur environnement et en expérimentant le mouvement et le langage. Ils collectent des informations par eux-mêmes, s'adaptent à de nouvelles situations et sont capables d'appliquer les expériences et les compétences acquises dans un domaine à d'autres domaines.

Depuis le début de ce siècle, les ingénieurs en robotique, ainsi que les neuroscientifiques et les psychologues, ont cherché des moyens de construire des machines qui imitent le développement spontané des enfants humains. Ces efforts concertés ont abouti à des robots capables de déplacer des objets, d'avoir des compétences de base en vocabulaire et en mathématiques, et même de montrer des signes de comportement social. À l'inverse, ces systèmes d'IA aident les psychologues à mieux comprendre comment les enfants apprennent.

Chat griffant

Notre cerveau essaie constamment de prédire l'avenir. Ils ajustent également constamment leurs attentes pour s'assurer qu'elles correspondent à la réalité. Supposons que vous rencontriez le chat du voisin pour la première fois. Étant donné que votre expérience avec les animaux de compagnie jusqu'à présent ne s'étend pas au-delà de votre propre chien, un animal joueur et affectueux, vous supposez que le chat aimera aussi être caressé. Mais si vous tendez la main, le chat se déchaîne, plantant ses griffes acérées dans votre chair. C'est une raison pour vous d'ajuster votre théorie concernant les animaux câlins. Vous pouvez développer l'hypothèse que le chat répondra plus gentiment si vous lui donnez une friandise savoureuse. Et effectivement, si vous lui donnez une friandise, le chat se laissera caresser sans devenir violent. Alors la prochaine fois que vous croiserez un chaton mignon, offrez-lui un morceau de poisson avant de toucher l'animal.

Des robots qui apprennent comme des enfants

Les centres de traitement supérieurs du cerveau affinent constamment nos modèles du monde extérieur. Ils le font en réponse à des signaux qui arrivent par les sens, comme la douleur après avoir griffé la patte d'un chat.

Nos yeux peuvent également fournir des signaux. Les cellules nerveuses de l'œil traitent d'abord les caractéristiques de base d'une image, puis transmettent ces informations aux régions cérébrales « supérieures ». Ils interprètent le sens de la scène dans son ensemble. Ce qui est tout à fait remarquable, c'est qu'il existe également des connexions nerveuses qui vont dans la direction opposée :des centres de traitement supérieurs aux structures inférieures. Certains neuroscientifiques pensent que ces connexions "vers le bas" transportent les prédictions du cerveau vers des niveaux inférieurs, influençant ainsi ce que nous voyons.

Fondamentalement, les signaux descendants des royaumes supérieurs interagissent constamment avec les signaux ascendants provenant des sens. Cela crée une erreur de prédiction :il y a une différence entre ce que nous attendons et ce que nous observons. Cet écart est transmis aux niveaux supérieurs, qui peuvent ajuster leurs modèles internes en fonction de celui-ci et générer de nouvelles prédictions. Ce cycle action-réaction se répète, formant une boucle infinie.

"Le signal que l'erreur de prédiction transmet aux royaumes supérieurs incite le système à faire des estimations de ce à quoi ressemble réellement le monde extérieur", a déclaré Rajesh Rao, neuroscientifique en informatique à l'Université de Washington. Au moment où Rao travaillait sur sa thèse, lui et son superviseur, la neuroscientifique computationnelle Dana Ballard, ont été les premiers à tester une telle forme de codage prédictif dans un réseau de neurones artificiels.

Les petits enfants apprennent plus facilement les associations de mots lorsqu'ils associent des objets à certaines positions du corps

Dans cette expérience, publiée en 1999 dans Nature Neuroscience , les chercheurs ont simulé des connexions nerveuses dans le cortex visuel. Après avoir formé le réseau à l'aide de photos de la nature, il s'est avéré capable de reconnaître les caractéristiques cruciales d'une image, telles que les rayures zébrées.

Sujet artificiel

Une différence fondamentale entre nous, les humains, et de nombreux systèmes d'IA actuellement existants est que nous avons un corps avec lequel nous pouvons nous déplacer dans le monde et avec lequel nous pouvons agir. Les bébés et les tout-petits se développent en essayant les mouvements de leurs bras, jambes, doigts et orteils et en explorant tout ce qui est à leur portée. Ils apprennent par eux-mêmes à marcher, à parler et à reconnaître des objets et des personnes. Comment ces petits font tout sans beaucoup d'instructions est quelque chose qui a intrigué les psychologues du développement et les ingénieurs en robotique. En travaillant ensemble, ils font parfois des découvertes surprenantes, dans les deux domaines.

Depuis la fin des années 1990, le scientifique en robotique Jun Tani et d'autres chercheurs ont mené une série d'expériences révolutionnaires. Avant cela, ils avaient conçu un réseau de neurones qui utilisait des prédictions pour apprendre les mouvements de base. Ils se demandaient dans quelle mesure ces algorithmes fonctionneraient dans les robots. Les machines se sont avérées capables de développer des compétences de base, telles que trouver son chemin dans un environnement pas trop complexe, imiter les gestes de la main et obéir à des commandes verbales simples, telles que "pointer" et "frapper".

Plus récemment, le chercheur en robotique Angelo Cangelosi et la psychologue du développement Linda Smith ont démontré l'importance du corps pour l'acquisition des connaissances. "La forme du corps du robot et les types d'actions qu'il peut effectuer aident à déterminer les expériences qu'il a et ce dont il peut apprendre", explique Smith. L'un des principaux « sujets de test » des scientifiques est iCub, un robot d'environ un mètre sous une forme plus ou moins humaine. iCub n'est pas équipé de fonctions préprogrammées. De cette façon, chaque chercheur peut installer des algorithmes pour ses expériences spécifiques.

Des robots qui apprennent comme des enfants

En 2015, Cangelosi et Smith ont doté le robot d'un réseau de neurones lui permettant d'apprendre des associations simples. Ce faisant, ils ont découvert qu'il apprenait plus facilement de nouveaux mots lorsque les noms d'objets étaient systématiquement liés à des positions corporelles spécifiques. Les chercheurs ont placé à plusieurs reprises une balle ou une tasse à gauche ou à droite du robot afin qu'il commence à associer les objets aux mouvements qu'il devait faire pour les voir, comme tourner la tête. Au cours de cet acte, ils ont mentionné le nom de l'objet en question. Il s'est avéré qu'iCub apprenait mieux ces mots de base lorsque l'objet correspondant était toujours vu à un endroit spécifique que lorsqu'il apparaissait à différents endroits.

Fait intéressant, les chercheurs ont obtenu des résultats similaires lorsqu'ils ont mené cette expérience avec des tout-petits de 16 mois :les petits enfants apprennent plus facilement les associations de mots lorsqu'ils associent des objets à certaines positions corporelles. L'équipe de Cangelosi développe actuellement cette technique, dans l'espoir d'enseigner aux robots des mots comme "ceci" et "cela", qui ne sont pas liés à des objets spécifiques.

Les robots et les enfants bénéficient également de l'apprentissage des compétences de base en mathématiques lorsqu'ils utilisent leur corps. La recherche montre, par exemple, que les enfants qui ont des difficultés à se faire une image mentale de leurs doigts sont également moins bons en mathématiques en moyenne. En 2011, une étude de l'équipe de Cangelosi a montré que cela s'applique également aux robots. Si un robot avait appris à compter avec ses doigts, les nombres seraient représentés avec plus de précision dans son réseau de neurones que s'il avait appris à compter en utilisant uniquement les noms des nombres.

Chiens robots

La confrontation à des choses nouvelles et surprenantes favorise également l'apprentissage chez les enfants. Des chercheurs de l'Université Johns Hopkins ont rapporté dans un article de 2015 dans Science que les jeunes enfants, lorsqu'ils voient quelque chose qu'ils ne connaissent pas déjà, comme un objet massif qui semble traverser un mur, regardent de plus près leurs attentes brisées. En d'autres termes, la tendance intrinsèque à réduire les erreurs de prédiction entraîne leur développement.

La recherche sur les processus prédictifs dans les réseaux de neurones pourrait également permettre de mieux comprendre les troubles du développement tels que l'autisme

Pierre-Yves Oudeyer, chercheur en intelligence artificielle à l'Institut national de recherche en informatique et en automatique (INRIA), pense que le processus d'apprentissage est plus subtil. Selon lui, les enfants sélectionnent activement et avec une étonnante délicatesse les objets de leur environnement qui leur offrent les meilleures et les plus grandes possibilités d'apprentissage. Si un tout-petit peut choisir entre une petite voiture et un puzzle de 100 pièces, il y a plus de chances qu'il joue avec la voiture. C'est probablement parce que l'enfant ayant le niveau de connaissances approprié à cet âge peut formuler des hypothèses plus vérifiables sur la voiture que sur le puzzle.

Pour tester cette théorie, Oudeyer a équipé des systèmes robotiques d'une fonction qu'il a appelée « motivation intrinsèque ». Cela signifie qu'une réduction des erreurs de prédiction donne une récompense. Mais qu'est-ce qu'une intelligence artificielle « ressent » comme récompense ? Eh bien, s'il est programmé pour rendre un certain nombre aussi grand que possible grâce à sa propre activité, toute augmentation de ce nombre équivaut à une récompense.

Grâce à ce mécanisme, AIBO, un robot Sony à l'apparence d'un chiot, équipé de capteurs et capable d'effectuer des mouvements simples, a pu sélectionner en toute autonomie les tâches offrant le plus grand potentiel d'apprentissage. Les chiens robots ont pu développer des compétences de base, comme saisir un objet ou communiquer avec un autre robot par le son. Ils ont réussi sans avoir à être programmés pour atteindre ces objectifs spécifiques. Ce résultat, a déclaré Oudeyer, est "un effet secondaire du robot explorant le monde, motivé par la motivation d'optimiser ses prédictions".

Remarquablement, le hasard a joué un rôle dans ce que les chiens robotiques ont appris, bien qu'ils aient tous traversé des étapes de formation similaires. Certaines copies ont fait un peu plus de travail de reconnaissance, d'autres moins. À la fin de l'expérience, ils avaient appris plusieurs choses. Selon Oudeyer, cela montre que même si les robots sont programmés de la même manière et suivent leur processus d'apprentissage dans un environnement similaire, ils peuvent éventuellement atteindre différents niveaux de compétence, ce que nous voyons également dans la plupart des classes scolaires.

Récemment, l'équipe d'Oudeyer a démontré grâce à des simulations informatiques que les organes de la parole artificielle dotés d'algorithmes prédictifs peuvent également apprendre les éléments de base du langage. Il étudie actuellement, avec la neuroscientifique cognitive Jacqueline Gottlieb, si une telle motivation intrinsèque basée sur la prédiction sous-tend également la curiosité humaine.

Un aperçu de l'autisme

Notre cerveau essaie également de prédire l'avenir lorsqu'il interagit avec d'autres personnes. Nous essayons constamment de déduire les intentions des gens de leur comportement et d'anticiper ce qu'ils diront ou feront ensuite. La volonté de réduire les erreurs de prédiction semble en elle-même suffisante pour générer des formes de comportement social de base, comme l'ont démontré la chercheuse en IA Yukie Nagai et ses collègues de l'Université d'Osaka en 2016.

Les chercheurs ont découvert qu'iCub montrait parfois un comportement utile même lorsqu'il n'était pas programmé avec une capacité intrinsèque à répondre aux autres. Ce comportement résulte uniquement de la motivation à réduire les erreurs de prédiction. Par exemple, le robot avait appris à pousser une petite voiture vers un endroit précis. À un moment donné, il a vu que l'un des chercheurs avait effectué la même action, mais n'avait pas réussi à la terminer.

De son propre chef, iCub a ensuite poussé la voiture dans la bonne position, simplement pour augmenter la certitude que la voiture se trouvait à un certain endroit. Selon Nagai, il est concevable que le développement des jeunes enfants fonctionne de manière similaire. "Il n'est absolument pas nécessaire qu'un jeune enfant ait l'intention d'aider les autres", soutient-elle. La seule motivation pour minimiser les erreurs de prédiction est suffisante pour initier le développement des compétences sociales de base.

La recherche sur les processus prédictifs dans les réseaux de neurones pourrait également permettre de mieux comprendre les troubles du développement tels que l'autisme. Nagai pense que certaines personnes autistes peuvent être plus sujettes aux erreurs de prédiction et se sentir donc submergées par les impressions sensorielles entrantes. Cela expliquerait aussi pourquoi ils sont si attirés par les comportements répétitifs. Après tout, les conséquences sont très prévisibles.

Le psychologue cognitif Harold Bekkering de l'Université Radboud de Nimègue pense que les processus prédictifs peuvent également apporter un nouvel éclairage sur le comportement des personnes atteintes de TDA (trouble déficitaire de l'attention). Sa théorie est que - contrairement aux autistes, qui préfèrent se protéger de l'inconnu - les personnes atteintes de troubles de l'attention sont constamment attirées par des stimuli imprévisibles dans leur environnement. "Certaines personnes sont sensibles au monde qui les entoure et l'explorent, tandis que d'autres sont hypersensibles au monde extérieur et s'en protègent", explique-t-il. "Vous pouvez magnifiquement simuler les deux modèles dans un réseau de neurones artificiels dans lequel des processus prédictifs sont programmés." Son équipe se prépare actuellement à tester cette hypothèse via des scanners cérébraux.

Nagai espère être en mesure de déterminer si la théorie est correcte d'une autre manière, à savoir avec le miroir cognitif ('miroir cognitif'). Cela signifie que des robots équipés d'algorithmes d'apprentissage prédictif interagissent avec les humains. Le robot et le sujet de test humain communiquent entre eux par le langage corporel et les expressions faciales. Le robot essaie de modifier son comportement pour qu'il corresponde à celui des humains, imitant la préférence humaine pour la prévisibilité. De cette façon, les chercheurs peuvent utiliser des robots pour simuler la cognition humaine, puis étudier l'architecture du réseau neuronal des robots pour découvrir ce qui se passe dans la tête d'un humain. "Nous pouvons externaliser nos propriétés dans un robot pour mieux nous comprendre", explique Nagai.

Plus que des machines

Les robots qui correspondent à l'intelligence des humains sont loin d'être une réalité :Chappie restera pour le moment dans le domaine de la science-fiction. Les scientifiques doivent encore surmonter toutes sortes d'obstacles techniques, comme le fait que le corps d'un robot est très fragile et n'a que des capacités "sensorielles" limitées.

Un défi bien plus grand est l'incroyable complexité du cerveau lui-même. Malgré de nombreuses tentatives pour imiter d'une manière ou d'une autre le cerveau, la science n'a pas encore été en mesure de construire une machine capable de rivaliser avec le cerveau humain. "Je suis totalement en désaccord avec les gens qui prétendent que dans dix à vingt ans nous aurons des machines avec le niveau d'intelligence de l'homme", déclare Pierre-Yves Oudeyer.

De plus, l'intelligence nécessite plus que la bonne machinerie et les réseaux de neurones adéquats. La recherche continue de montrer que les parents et les autres soignants sont essentiels au développement d'un enfant. "Si vous me demandiez si un robot peut vraiment devenir humain, je répondrais en demandant si quelqu'un peut s'occuper d'un robot de la même manière qu'un enfant", explique Jun Tani. "Si la réponse est 'oui', c'est peut-être possible. Sinon, nous ne pouvons pas nous attendre à ce qu'un robot se développe comme un véritable enfant humain.'

Un autre aspect important est que les connaissances sont collectées progressivement, étape par étape. « Le développement d'un enfant est un système très complexe de réactions en chaîne successives », explique Linda Smith. « Ce qui se passe un jour jette les bases de ce qui se passe le lendemain. » Selon elle, ce processus d'apprentissage progressif, qui est caractéristique de l'être humain et qui dure toute une vie, est inestimable. Tant que nous ne pourrons pas intégrer ce processus dans une intelligence artificielle, selon Smith, un robot ne pourra jamais atteindre le niveau d'intelligence humaine.

Peu avant sa mort, le célèbre physicien Richard Feynman écrivait :"Ce que je ne peux pas faire, je ne le comprends pas." Dans son livre Exploring Robotic Minds Tani donne une nouvelle tournure à cette pensée :"Je peux comprendre ce que je peux faire." La meilleure façon de comprendre l'esprit humain, pense-t-il, est de l'imiter.

Peut-être réussirons-nous un jour à créer un robot capable d'explorer, de s'adapter et d'évoluer aussi bien qu'un enfant humain. Si nécessaire, ces robots auront même des gardiens artificiels pour leur offrir affection et conseils. Jusque-là, les robots qui ressemblent un peu à des enfants continueront de nous fournir des informations précieuses sur la façon dont les enfants apprennent et de montrer ce qui peut arriver lorsque certains mécanismes de base tournent mal.


[]