Innovation énergétique dans l’intelligence artificielle
Des chercheurs de l’Université du Minnesota ont conçu un dispositif innovant capable de réduire la consommation d’énergie des applications d’intelligence artificielle par un facteur d’au moins 1 000. Cette avancée repose sur une nouvelle architecture de mémoire qui permet de traiter les données directement dans la mémoire, évitant ainsi les transferts énergivores. Leurs travaux, publiés dans npj Unconventional Computing, pourraient transformer l’avenir de l’IA et de son impact environnemental.
Points clés
- Les chercheurs de l’Université du Minnesota ont développé un dispositif qui pourrait réduire la consommation d’énergie de l’IA par un facteur d’au moins 1 000.
- La recherche a été publiée dans le journal npj Unconventional Computing.
- Le nouveau modèle utilise la mémoire pour le traitement des données, appelé mémoire d’accès aléatoire computationnelle (CRAM).
- L’Agence internationale de l’énergie prévoit que la consommation d’énergie de l’IA doublera, passant de 460 TWh en 2022 à 1 000 TWh en 2026.
- Le dispositif CRAM pourrait permettre des économies d’énergie allant jusqu’à 2 500 fois par rapport aux méthodes traditionnelles.
À retenir
Alors, si vous pensiez que l’intelligence artificielle était déjà une belle petite machine énergivore, attendez de voir ce que ces chercheurs de l’Université du Minnesota ont concocté. Avec leur CRAM, on pourrait presque dire que l’IA va devenir aussi économe qu’un étudiant en fin de mois ! Mais sérieusement, espérons que cette technologie se généralise avant que nos factures d’électricité ne nous fassent pleurer.
Sources