Les enfants développent leurs connaissances et compétences à partir de zéro. Des chercheurs conçoivent des algorithmes d'IA qui imitent ce processus, révélant comment corps et esprit interagissent.
Dans le film de science-fiction Chappie (2015), l'ingénieur Deon crée un robot capable de penser et ressentir. Son logiciel d'IA apprend comme un enfant, partant d'une tabula rasa. En observant et expérimentant, Chappie acquiert langage et compétences complexes – un exploit encore hors de portée des IA actuelles.
Les machines apprennent à imiter les gestes de la main et à obéir à des commandes verbales simples, telles que « pointer » et « frapper ».
Certaines IA surpassent les humains dans des domaines spécifiques, comme les échecs ou Go. En 2017, DeepMind a présenté AlphaGo Zero, qui a appris le Go en jouant contre lui-même, sans données humaines. Impressionnant, mais limité aux règles claires et à des millions de parties.
Les enfants, eux, explorent leur environnement dès la naissance, s'adaptant et transférant leurs acquis. Depuis les années 2000, roboticien·ne·s, neuroscientifiques et psychologues conçoivent des robots imitant ce développement. Ces systèmes acquièrent mouvements, vocabulaire, maths de base et comportements sociaux, aidant à mieux comprendre l'apprentissage enfantin.
Notre cerveau prédit constamment l'avenir et ajuste ses modèles face à la réalité. Imaginez caresser un chat inconnu, pensant comme votre chien affectueux : il griffe ! Vous ajustez : une friandise marche mieux. Les régions supérieures du cerveau raffinent ainsi nos modèles via signaux sensoriels, comme la douleur.

Les yeux traitent d'abord les traits basiques, puis les régions supérieures interprètent. Des connexions descendantes portent les prédictions, influençant la perception. Signaux ascendants et descendants créent des « erreurs de prédiction », ajustant les modèles en boucle.
« L'erreur de prédiction incite le système à mieux estimer le monde extérieur », explique Rajesh Rao, neuroscientifique à l'Université de Washington. En 1999, avec Dana Ballard, ils ont testé ce codage prédictif dans un réseau neuronal simulant le cortex visuel, reconnaissant traits comme les rayures de zèbre (Nature Neuroscience).
Les petits enfants apprennent plus facilement les associations de mots lorsqu'ils associent des objets à certaines positions du corps.
Contrairement aux IA classiques, les humains apprennent via un corps interactif. Bébés et toddlers expérimentent mouvements et objets pour marcher, parler, reconnaître. Roboticien·ne·s et psychologues du développement collaborent pour reproduire cela.
Depuis les années 1990, Jun Tani a développé des réseaux prédictifs apprenant mouvements basiques. Les robots imitent gestes manuels et commandes comme « pointer » ou « frapper ».
Angelo Cangelosi et Linda Smith soulignent le rôle du corps : « Sa forme détermine les expériences et apprentissages », dit Smith. Avec iCub, robot humanoïde open-source, ils ont montré en 2015 qu'il associe mieux mots à objets liés à positions corporelles fixes (ex. : balle à gauche).

Les toddlers de 16 mois réagissent pareillement. L'équipe étend cela à « ceci/cela ». Le corps aide aussi les maths : robots comptant avec doigts représentent mieux les nombres.
Les nouveautés surprenantes boostent l'apprentissage enfantin (étude Johns Hopkins, Science 2015). Pierre-Yves Oudeyer (INRIA) ajoute une « motivation intrinsèque » : récompense via réduction d'erreurs prédictives.
La recherche sur les processus prédictifs dans les réseaux de neurones pourrait également permettre de mieux comprendre les troubles du développement tels que l'autisme.
AIBO, robot-chien Sony, sélectionne tâches optimales, apprenant saisie ou communication sans programmation spécifique. Le hasard influence les acquis, comme chez les enfants.
Récemment, simulations montrent apprentissage vocal basique. Oudeyer étudie si cela explique la curiosité humaine.
Le cerveau prédit interactions sociales. Yukie Nagai (Osaka, 2016) montre qu'iCub développe aide spontanée via minimisation d'erreurs, sans programmation sociale.
Cela éclaire autisme (hypersensibilité aux erreurs, attirance répétitif) et TDAH (attrait imprévisibilité), simulent Harold Bekkering (Radboud). Tests en cours via IRM et « miroir cognitif » : robots imitant humains pour modéliser cognition.
Robots humains intelligents restent fiction : fragilité corporelle, limites sensorielles, complexité cérébrale. « Pas d'IA humaine d'ici 10-20 ans », dit Oudeyer.
Intelligence requiert soins parentaux et apprentissage progressif (Smith). Tani : un robot deviendra humain si soigné comme tel. Feynman : « Ce que je ne crée pas, je ne comprends pas. » Imitation pour comprendre l'esprit.
Bientôt, robots explorateurs comme enfants, avec gardiens IA ? D'ici là, ils éclairent apprentissage et dysfonctionnements.
[]