ChatGPT : Une Étude Révèle une Consommation Énergétique Surprenante
Une étude récente bouleverse toutes nos croyances sur la consommation énergétique de ChatGPT. Selon les résultats, l’intelligence artificielle s’avère être bien plus économe que ce qu’on avait imaginé.

Une nouvelle étude dévoilée par Epoch AI et relayée par TechCrunch, remet en question les précédentes estimations relatives à la consommation d’énergie de ChatGPT. Les résultats obtenus s’opposent aux suppositions antérieures.
Des Calculs Révélateurs
La révélation phare de cette étude concerne la consommation énergétique qui s’élève à 0,3 wattheure par requête pour la version GPT-4o. Cette valeur est dix fois inférieure aux prévisions initiales de 3 wattheures.
Cette différence s’explique par plusieurs avancées technologiques et une meilleure connaissance des mécanismes sous-jacents à ces systèmes. Les anciens calculs étaient principalement fondés sur des hypothèses optimistes, notamment l’idée que les serveurs fonctionnaient toujours à plein régime, équipés de puces Nvidia A100. La réalité se révèle être bien différente.
Les nouvelles calculs prennent en considération une utilisation plus réaliste, où les serveurs fonctionnent à 70 % de leur capacité. L’intégration des puces Nvidia H100, qui offre de meilleures performances, a également contribué à cette réduction de consommation.
Ces nouveaux modèles de puces affichent une efficacité énergétique augmentée de 60 % par rapport à leurs prédécesseurs, tandis que les moments de repos entre les requêtes, ainsi que la longueur réelle des réponses, plus brèves que prévu, ont été intégrés dans les calculs.
Une Comparaison Éclairante
Pour mieux comprendre ces données, comparons la consommation d’une requête sur ChatGPT à des actes quotidiens. Une seule requête mobilise autant d’énergie qu’une recherche sur Google, soit 0,3 wattheure.

C’est considérablement moins que la consommation d’un iPhone 15, qui nécessite environ 4,7 wattheures, ou encore d’une heure de télévision, qui absorbe 120 wattheures. Cette mise en perspective montre que l’IA, loin des idées reçues, n’est pas un gouffre énergétique à l’échelle personnelle.
Des Enjeux Énergétiques Persistants
Malgré ces chiffres encourageants, la consommation annuelle de ChatGPT pourrait atteindre 226,8 GWh, soit l’équivalent de la consommation totale de plus de trois millions de véhicules électriques. De plus, les experts prévoient que cette consommation pourrait doubler d’ici 2026, en raison d’une adoption toujours plus importante de l’intelligence artificielle dans divers secteurs.
Par ailleurs, les acteurs du domaine, tels qu’OpenAI, DeepSeek et Mistral, encouragent essaient de développer des modèles de raisonnement plus efficaces, comme le o3-mini. Cependant, cette volonté d’amélioration énergétique se heurte à un paradoxe : les gains d’efficacité ne parviennent pas à compenser la hausse des besoins énergétiques liée aux nouvelles versions de modèles de raisonnement, comme le DeepSeek r1 ou l’OpenAI o1, qui offrent des réponses plus élaborées et structurées.