L'intelligence artificielle (IA) traite d'immenses volumes de données, générant une consommation énergétique massive. Une puce innovante, développée par imec, effectue ces calculs directement en mémoire via une technologie analogique, réduisant drastiquement cette empreinte écologique.
La planète se réchauffe, nécessitant une transition climatique urgente. C'est le pilier du programme de la Commission européenne pour 2020 : « Vers une Europe équitable, climatiquement neutre et numérique ».
Parallèlement à la transition écologique, la transformation numérique est prioritaire, avec un focus sur l'IA. La Commission européenne souligne que « les technologies comme l'IA sont cruciales pour les objectifs du Green Deal », liant ainsi IA et lutte contre le réchauffement.
L'IA excelle dans les prévisions climatiques précises, la détection de pertes énergétiques ou la décarbonation industrielle. Cependant, son fonctionnement engendre un impact environnemental majeur : traitement de données massives représentant une part significative de la production électrique mondiale, avec une croissance exponentielle des calculs. Les data centers, plus efficaces et partiellement renouvelables, peinent à compenser.
Des chercheurs de l'Université du Massachusetts ont quantifié les émissions d'entraînement de modèles de traitement du langage naturel. En extrapolant via GPU et mix énergétique cloud, l'algorithme le plus gourmand émet 284 tonnes de CO2, équivalent aux émissions de cinq voitures sur leur cycle de vie complet.
La sensibilisation grandit : les chercheurs intègrent désormais un calculateur d'émissions d'apprentissage automatique, rapportant temps de calcul, matériel et CO2 estimé dans leurs publications.
Pour minimiser l'empreinte, deux voies : logiciels et matériels optimisés. Côté logiciel, l'élagage neuronal supprime les connexions superflues, rendant les réseaux plus compacts, rapides et économes.
Côté matériel, les GPU dominent malgré leur conception initiale non dédiée à l'IA. Des accélérateurs spécifiques comme les TPU de Google surpassent les GPU en efficacité. Les FPGA consomment moins mais calculent plus lentement ; les ASIC excellent en performance énergétique (TOPS/W : téra-opérations par seconde par watt). Pourtant, pour passer de 1 à 10 000 TOPS/W, une rupture technologique s'impose.

Les calculs IA migrent des data centers vers les appareils périphériques (edge). « Traiter localement économise énormément d'énergie, évitant la transmission vers les clouds », explique Diederik Verkest, directeur du programme machine learning chez imec. Les data centers et transmissions consomment équivalent.
Cette évolution accompagne la prolifération d'appareils IoT minuscules. Pour un traitement local viable, l'efficacité énergétique doit exploser. « Cela varie selon l'appareil : capteur IoT, smartphone ou voiture autonome », note Verkest. Dans une voiture, des GPU (200 W) traitent les images en millisecondes ; impossible pour petits devices à batterie limitée.
Exemple : 20 billions d'opérations pour reconnaître un objet. À 1 seconde et 20 W, viable en voiture mais fatal pour un smartphone (recharge en 45 min) ou IoT.
Pour l'inférence locale (prédictions post-entraînement en data center), une nouvelle architecture s'impose. Traditionnellement, processeur et mémoire sont séparés : fetch énergivore pour matrices/vecteurs IA.
La précision numérique excessive est superflue pour la reconnaissance de formes. Solution : calculs en mémoire analogique, proche et moins précis.
Intégrer l'analogique au numérique ? Paradoxal mais efficace : signaux continus, moins précis individuellement, mais résultat global rapide et économe.
Via lois d'Ohm et Kirchhoff, multiplications matrice-vecteur simultanées en mémoire : tensions pour entrées, conductances pour poids, courants pour résultats. Pas de fetch répété.

L'accélérateur d'inférence analogique (AnIA) atteint 2 900 TOPS/W. « Référence compacte, 10-100 fois plus efficace que le numérique », dixit Verkest. Objectif : 10 000 TOPS/W pour capteurs autonomes, sans data centers.
[]