
Rapport : ChatGPT consomme moins d’énergie que les appareils ménagers
Une nouvelle étude de l’institut à but non lucratif Epoch AI a réfuté la croyance répandue concernant la forte consommation d’énergie de ChatGPT. Selon l’analyse, le chatbot populaire d’OpenAI s’est révélé nettement plus économe en énergie qu’on ne le pensait auparavant.
L’étude a montré qu’une requête moyenne à ChatGPT utilisant le dernier modèle GPT-4o ne consomme qu’environ 0,3 watt-heure d’énergie. Ce chiffre est dix fois inférieur à l’estimation précédemment citée de 3 watt-heures par requête, qui était largement citée dans les médias et comparée à la consommation d’énergie de dix recherches Google.
« La consommation d’énergie est en réalité insignifiante comparée à l’utilisation d’appareils ménagers ordinaires, au chauffage ou au refroidissement d’une maison, ou à un trajet en voiture, » a expliqué Joshua Yu, analyste de données chez Epoch qui a mené l’étude. Selon lui, les études précédentes étaient basées sur des données obsolètes et supposaient qu’OpenAI utilisait des puces moins efficaces d’ancienne génération pour faire fonctionner leurs modèles.
La discussion sur la consommation d’énergie de l’IA reste d’actualité dans le contexte de l’expansion rapide de l’infrastructure des entreprises d’IA. Il y a tout juste une semaine, plus de 100 organisations ont publié une lettre ouverte appelant l’industrie de l’IA et les régulateurs à s’assurer que les nouveaux centres de données n’épuisent pas les ressources naturelles et ne forcent pas les services publics à dépendre de sources d’énergie non renouvelables.
Cette recherche pourrait devenir un argument important dans la discussion sur l’impact environnemental de l’intelligence artificielle, démontrant que les systèmes d’IA modernes peuvent être plus économes en énergie qu’on ne le pensait auparavant. Cependant, l’impact global de l’industrie de l’IA sur l’environnement reste un sujet d’attention particulière pour les écologistes et les régulateurs.