Si l’IA révolutionne déjà de nombreux secteurs, elle pose aussi un problème majeur pour l’environnement : son énorme consommation énergétique. Pour réduire cette dernière, des chercheurs de l’Université du Minnesota ont mis au point un dispositif innovant, qui rendrait cette technologie 2500 fois moins vorace.
L’intelligence artificielle est certainement la technologie la plus importante de ce début du XXIe siècle. Elle promet de révolutionner de nombreux domaines d’activités, et le fait déjà pour certains. On pense notamment à l’agriculture, à l’industrie, la médecine, la robotique, etc. Mais cette innovation a un côté obscure. Elle fait peser sur l’humanité de gros risques, notamment au niveau de la sécurité informatique.
La consommation mondiale d’énergie pour des activités d’IA devrait doubler d’ici à deux ans
L’intelligence artificielle représente aussi et surtout un problème pour la transition énergétique. En effet, cette technologie consomme énormément d’électricité pour le transfert de données entre la mémoire et les processeurs. Cette voracité est due au fait que les systèmes d’IA effectuent des calculs complexes et traitent une quantité massive d’informations en un temps record (10 millions de requête par jour pour ChatGPT).
Selon l’Agence internationale de l’énergie atomique (AIEA), la consommation mondiale d’énergie pour des activités d’intelligence artificielle devrait doubler entre 2022 et 2026 pour atteindre 1 000 TWh. C’est à peu près la consommation annuelle du Japon ou de l’Allemagne. Pointés du doigt, les géants de la tech mondiale comme Google et OpenAI, société à l’origine du fameux ChatGPT, travaillent sur des moyens de réduire leur empreinte carbone. En vain pour l’heure.
L’essor de l’IA incompatible avec la baisse de consommation d’énergie ?
Certains spécialistes estiment d’ailleurs que l’essor de l’intelligence artificielle est totalement incompatible avec les idées de décroissance et même de baisse de consommation d’énergie. Selon eux, cette ambition ne peut pas être concrétisée à cause des énormes bases de données ou data center. Mais un nouveau dispositif pourrait aider à réduire drastiquement la consommation d’énergie. Il s’agit de la Mémoire Vive à Accès Aléatoire Computationnelle (CRAM).
La CRAM réduit la consommation énergétique de l’IA en traitant les données directement dans la mémoire
La technologie CRAM fait l’objet de recherches depuis plus de 20 ans, principalement de la part de l’Université du Minnesota, qui annonce des résultats encourageants. Des chercheurs de cette institution ont expérimenté pour la première fois la CRAM dans un système d’IA. Ils ont constaté qu’elle rend l’intelligence artificielle 2500 fois moins vorace. Comment ? En traitant les données directement au sein de la mémoire, sans avoir besoin de les transférer.
La CRAM fonctionne différemment des systèmes habituels. Au lieu de stocker des données et de les envoyer aux processeurs pour traitement, une étape énergivore, cette technologie effectue les calculs directement dans la mémoire. Pour cela, elle utilise une technique spéciale, dite des jonctions tunnel magnétiques (MTJ), qui manipule les propriétés des électrons, plutôt que les charges électriques.
Vers une collaboration avec les fabricants de semi-conducteurs
Selon l’Université du Minnesota, la CRAM peut réaliser des tâches d’addition scalaire ou de multiplication matricielle en seulement 434 nanosecondes. Et cela en n’ayant besoin que de 0,47 microjoule d’énergie. Cette méthode permettrait ainsi aux systèmes d’IA d’être plus rapides et de consommer moins d’électricité. Alors que l’impact environnemental de l’intelligence artificielle continue de croître, l’adoption de la CRAM pourrait ouvrir des perspectives prometteuses pour réduire l’empreinte environnementale. Les chercheurs souhaitent à présent approcher les fabricants de semi-conducteurs pour développer cette technologie.