Grâce aux percées dans le domaine avancé de l'IA, appelé « apprentissage en profondeur », l'ordinateur peut enfin interpréter de nombreuses images aussi bien que les humains. Ou encore mieux.
Depuis trente ans, les scientifiques tentent d'affiner la vision par ordinateur. Mais même les tâches de routine telles que la reconnaissance faciale sur les photos tournent parfois mal. Maintenant, les choses s'améliorent. Grâce aux percées dans le domaine avancé de l'IA, appelé « apprentissage en profondeur », l'ordinateur peut enfin interpréter de nombreuses images aussi bien que les humains. Ou même mieux. Il existe déjà un certain nombre d'applications sur le marché, et il est probable que dans une grande variété d'emplois, la technologie allégera, voire remplacera, les tâches de l'homme. L'ordinateur pourra tout piloter, de la conduite de camions à la lecture de diagnostics médicaux à partir d'analyses.
Le bond en avant est dû aux réseaux de neurones dits à convolution (CNN). Les possibilités de la technologie sont impressionnantes. Pensez aux images d'animaux, par exemple. Nous, les humains, pouvons facilement distinguer un chat d'un chien, mais grâce à CNN, les ordinateurs sont bien meilleurs pour reconnaître les différentes races. Ils sont mieux à même de reconnaître et d'interpréter des schémas subtils mais importants.
Vous n'avez pas besoin de programmer des réseaux de neurones convolutifs pour reconnaître des caractéristiques spécifiques - la forme et la taille des oreilles d'un animal, par exemple. Ils apprennent à le remarquer eux-mêmes. Si vous voulez apprendre à un CNN à distinguer un malinois d'un berger allemand, vous commencez avec des milliers d'images d'animaux, y compris ces deux races. Comme la plupart des réseaux d'apprentissage en profondeur, les CNN fonctionnent en couches. Dans la partie inférieure, ils apprennent à reconnaître des formes et des contours simples. Les couches supérieures se concentrent sur des concepts complexes et abstraits. Dans ce cas, il s'agit des plus petits détails des oreilles, de la queue, de la langue, de la fourrure, etc. Une fois qu'un CNN a été "formé", il sait rapidement si une race pertinente est représentée sur une nouvelle image.
Les CNN ont été rendus possibles grâce aux incroyables progrès réalisés par les scientifiques dans les processeurs graphiques et le traitement parallèle au cours de la dernière décennie. Internet joue également un rôle clé :il alimente la soif insatiable d'images numériques des CNN.
Des experts travaillent déjà sur des systèmes de vision par ordinateur avec apprentissage en profondeur pour une gamme d'applications. La technologie reconnaît les piétons et rend ainsi la voiture autonome plus sûre. Les compagnies d'assurance commencent à les utiliser pour déterminer les dommages aux voitures. Les CNN aident les caméras de surveillance à lire le comportement des foules, ce qui rend les espaces publics et les aéroports plus sûrs. Pour l'agriculture, il existe des applications permettant de prédire le rendement des cultures, de surveiller les niveaux d'eau et de détecter précocement les maladies des plantes.
L'impact de la technologie est le plus important en médecine. La vision par ordinateur peut aider les experts à interpréter plus rapidement les scans et les échantillons de tissus, et peut fournir des informations essentielles lorsque l'expertise humaine fait défaut - dans le dépistage, le diagnostic, le suivi de la progression de la maladie ou la réponse au traitement. Plus tôt cette année, le gouvernement américain a approuvé une technique de visualisation de la circulation sanguine dans le cœur. La start-up Arterys veut l'utiliser dans le diagnostic des maladies cardiaques.
Cette année également, Sebastian Thrun (Université de Stanford) et ses collègues ont décrit dans la revue Nature comment leur système CNN distingue le cancer de la peau aussi précisément que les dermatologues. Selon les chercheurs, vous pourriez mettre l'application dans une application pour toute personne disposant d'un smartphone, ce qui se traduirait par "un accès universel bon marché aux soins de diagnostic vitaux". Des systèmes sont également en cours de développement pour reconnaître des conditions telles que la rétinopathie diabétique (une cause de cécité), les accidents vasculaires cérébraux, les fractures et la maladie d'Alzheimer.