Quels sont les véritables coûts écologiques de l’intelligence artificielle ?
Cet article explore en détail l’impact environnemental de l’utilisation de l’intelligence artificielle, en se concentrant particulièrement sur le cas de ChatGPT. À travers des chiffres concrets et des comparaisons éclairantes, il nuance les discours alarmistes tout en mettant en lumière les défis à relever pour réduire l’empreinte carbone et la consommation d’eau de ces technologies émergentes.
Points clés
- L’entraînement de GPT-3, le modèle de langage à la base de ChatGPT, a émis environ 550 tonnes d’équivalent CO2
- Mais l’utilisation de ChatGPT (les “coûts d’inférence”) est 25 fois plus polluante que son entraînement
- Générer 1000 textes avec ChatGPT consomme l’équivalent de 16% de la batterie d’un smartphone, tandis que 1000 images consomment l’équivalent d’un chargement complet
- La localisation géographique des centres de données est cruciale : en France, l’impact carbone est 10 fois moindre qu’aux États-Unis
- L’impact de la fabrication du matériel informatique (puces, serveurs, etc.) est bien plus important que celui de l’utilisation
- Mais l’IA peut aussi permettre de réduire les émissions, en optimisant l’utilisation des ressources ou en accélérant la recherche sur des solutions vertes
À retenir
Bien que l’intelligence artificielle ait un impact environnemental non négligeable, notamment à cause de la consommation électrique et en eau des centres de données, il serait exagéré de la qualifier de “catastrophe écologique”. Avec des efforts pour rendre les infrastructures plus vertes et une utilisation plus raisonnée, l’IA peut même devenir un atout dans la lutte contre le changement climatique. Reste à espérer que les acteurs du secteur prendront leurs responsabilités au sérieux, sans se cacher derrière des calculs approximatifs.
Sources