Des chercheurs ont développé un programme qui permet aux ordinateurs d'apprendre de nouveaux concepts à partir d'un seul exemple.
Des chercheurs ont développé un programme qui permet aux ordinateurs d'apprendre de nouveaux concepts à partir d'un seul exemple. Quelque chose comme ça peut nous sembler évident, mais ce n'est pas du tout pour les ordinateurs.
Les ordinateurs font de plus en plus des choses que seuls les humains pouvaient faire auparavant :ils reconnaissent les objets et les visages et traduisent le langage parlé en texte écrit, puis dans une autre langue. Mais ils ne font pas comme nous, en plus :ils trichent généralement un peu.
La plupart des programmes recherchent des modèles caractéristiques dans les données. Par exemple, un visage, pour le dire très simplement, a toujours des pixels de couleurs différentes (yeux, nez, bouche ...) qui se rapportent les uns aux autres de manière reconnaissable, mais diffèrent d'un visage à l'autre. Ces modèles permettent à un ordinateur de distinguer les visages sans comprendre ce qu'ils sont.
L'inconvénient d'une telle approche est que, selon les termes des développeurs, elle est extrêmement gourmande en données. Un ordinateur doit voir plusieurs centaines, voire des milliers d'exemples d'un objet particulier avant de pouvoir dire avec suffisamment de certitude « Je pense que celui-ci en est un aussi ». Ainsi, les programmes de reconnaissance faciale voient d'abord des milliers de visages, puis de préférence au moins quelques dizaines de personnes qu'ils recherchent.
Les gens, d'autre part, n'ont souvent besoin que d'un seul exemple. Les enfants se rappelleront à quoi ressemble un crocodile après un passage au zoo, même si tous les crocodiles sont différents. Les adultes jettent un coup d'œil aux vis et outils particuliers dans une brochure qui explique comment ils peuvent visser eux-mêmes un meuble, puis le sortir parfaitement de la boîte. Et après avoir vu un symbole que vous n'avez jamais vu auparavant, vous pouvez en dessiner un vous-même sur simple demande.
Les ordinateurs ont beaucoup plus de mal avec ça. Par exemple, en 2006, des scientifiques ont fièrement présenté un programme informatique capable de reconnaître les chiffres manuscrits de 0 à 9, puis d'en dessiner un eux-mêmes. Mais avant qu'il ne puisse le faire, ils avaient servi 6 000 versions différentes de chaque figure. Alors que les gens peuvent faire quelque chose comme ça dès la première fois.
Cela pourrait être mieux, a également pensé l'informaticien Russ Salakhutdinov, qui a co-écrit cet article. Il est donc retourné au travail, dans l'espoir de développer un programme qui pourrait apprendre aussi bien que nous. Il s'est fait aider par le data scientist Brenden Lake, qui a découvert il y a quelques années que les personnes à qui vous demandez de dessiner un symbole fonctionnent presque toujours de la même manière :elles divisent le symbole en parties qu'elles dessinent ensuite dans un certain ordre. .
Mensen zien niet gewoon een patroon van pixels, begreep Lake, noch enkele lijnen op papier, maar ze verbeelden zich ook hoe die lijnen tot stand kwamen – een bewuste opeenvolging van pennenstreken – waaruit ze zonder veel moeite afleiden hoe ze zelf zo'n symbool kunnen Dessiner. Si nous pouvons enseigner cela aux ordinateurs, pensaient les scientifiques, alors c'est parti.
Ils ont utilisé une approche qui ne recherche pas de modèles apportant une certitude, mais une approche dite «bayésienne», qui tient compte de l'incertitude et fonctionne souvent bien avec très peu de données. Ils ont eux-mêmes écrit un programme qui convertit les lettres de trente alphabets différents en un langage informatique simple contenant des opérations produisant toujours un caractère plus ou moins similaire.
C'est ainsi qu'un programme toujours plus intelligent s'est développé qui, en un sens, a « appris » comment les lettres sont écrites. Et cela aide :si vous présentez le programme avec un caractère manuscrit qu'il n'a jamais vu auparavant, expliquent les scientifiques dans Science cette semaine. , il choisit le même caractère écrit légèrement différemment parmi vingt autres caractères aussi facilement que le sujet de test moyen.
Bravo, mais leur programme peut-il aussi copier lui-même une telle nouvelle lettre ? Est-ce qu'il comprend immédiatement ce qui est nécessaire pour afficher exactement cette lettre ? Pour le savoir, les scientifiques ont demandé au programme de copier plusieurs lettres qu'il n'avait jamais vues auparavant et ont demandé à quelques personnes de faire de même. On a ensuite demandé aux sujets s'ils pouvaient distinguer les personnages dessinés par ordinateur des personnages dessinés par l'homme.
Seuls 3 des 48 sujets y parvenaient occasionnellement. Les autres ne s'en sortaient pas mieux que s'ils jouaient. Génial, mais peut-être avons-nous rendu les choses un peu trop faciles pour notre programme, pensèrent les scientifiques. Les gens ne connaissent généralement pas 30 alphabets différents. Alors ils ont recommencé et n'ont appris leur programme que cinq alphabets. Encore une fois, 25 des 32 sujets n'ont vu aucune différence. Toujours absolument pas mal.
Pourtant, les scientifiques n'étaient pas satisfaits, alors ils ont demandé à leur programme de proposer une lettre entièrement nouvelle qui s'intégrerait dans un alphabet invisible. Les sujets pouvaient à peine distinguer ces lettres des lettres inventées par les humains. Et la même chose s'est avérée être le cas avec un test final, dans lequel l'ordinateur a été autorisé à créer une nouvelle lettre tout seul. Apparemment, ils semblaient aussi plausibles que les lettres inventées des adultes.
Tout cela semble assez évident parce que nous pouvons très bien le faire nous-mêmes, mais pour les ordinateurs, ce n'est absolument pas le cas. Reste que les scientifiques ne veulent pas trop faire sauter la tour :lors de la conférence de presse de jeudi, ils ne sauraient assez répéter combien de travail il reste à faire. Il n'existe pas encore de programme capable d'analyser et de produire aussi bien des images, des images vidéo et du langage parlé. Mais les chances que cela se produise semblent avoir considérablement augmenté avec celui-ci.
De plus, cette façon d'analyser les données peut être appliquée dans la compression des données, le stockage des données d'une manière qui nécessite le moins de mémoire possible, ou dans l'analyse automatique des données scientifiques. Par exemple, le troisième auteur de l'article, Joshua Tenenbaum, est également l'un des concepteurs de "The Automatic Statistician", un programme qui rapporte automatiquement des modèles dans des ensembles de données simples sur une douzaine de pages.