Une recherche sur ChatGPT génère 10 à 20 fois plus de CO2 que sur Google
Adoptée massivement, l’IA générative pose un défi énergétique et climatique majeur. Mais des solutions existent…
Rapide, efficace mais au combien néfaste pour l’environnement. L’intelligence artificielle générative a bouleversé notre quotidien. Près d’un Français sur deux (43%) a déjà utilisé un de ces nouveaux outils tels que ChatGPT, Grok, Gemini, Perplexity ou Claude.
Chez les jeunes âgés de 16 à 25 ans, cette proportion atteint le chiffre impressionnant de 89%, selon une étude d’Ifop réalisée en octobre dernier.
Parmi la génération Z, 82% ont recours à l’IA générative au moins une fois par semaine et plus d’un quart (28%) s’en servent « tous les jours ou presque ».
Et pour cause : nous sommes de plus en plus nombreux à nous servir de ces plateformes au quotidien pour lancer de simples recherches.
Dans une une étude effectuée par The Information, plus de la moitié (55%) des sondés affirmait avoir délaissé les moteurs traditionnels comme Google au profit des outils d’IA générative. Leur efficacité n’est plus à démontrer même si beaucoup d’entre nous devrait éviter de s’en servir à la moindre occasion.
« Cette technologie est extrêmement consommatrice de ressources, d’électricité, d’eau et de matériaux, prévient Hervé Mignot, qui occupe depuis 2023 la fonction de Chief AI officer d’European Digital Group (EDG), un groupe spécialisé en accélération digitale. Un serveur rack ‘classique’ dans un data center consomme dix à vingt fois moins d’électricité qu’un serveur dédié à l’IA. » Cette « gloutonnerie » énergétique a déjà des conséquences très concrètes…
La consommation électrique des centres de données est passée de 165 TWH à 420 TWH entre 2014 et 2024, d’après une étude approfondie publiée par The Shift Project. Son rythme de croissance annuelle a atteint 13% entre 2019 et 2024 contre 7% lors des cinq années précédentes.
Une consommation qui peut tripler en six ans
Si rien ne change d’ici là, le cap des 1500 TWH par an sera dépassé en 2030. Cette consommation pourrait donc plus que tripler en six ans. L’IA utilisera, à elle seule, plus du tiers de ces ressources (35%), contre à peine 15% l’an dernier.
D’ici quatre ans, les émissions de ces centres de données devraient représenter le double de celles de la France toute entière ! Notre pays n’est d’ailleurs pas épargné par ce phénomène. Les data centers basés sur notre territoire pourraient représenter 7,5% de la consommation électrique française en 2035 contre à peine 2% aujourd’hui.
Les géants de la tech ont bien conscience de ce problème. « Ces groupes font une véritable razzia sur toutes les ressources d’énergies vertes mais cette stratégie, qui peut paraître louable, a pour conséquence de contraindre les autres industries à accroitre leurs consommations d’énergies moins propres, constate Hervé Mignot qui est également professeur associé à l’université Aix-Marseille.
En juin dernier, Meta a signé avec Constellation Energy un contrat d’approvisionnement d’une durée de 20 ans pour lui acheter la production de 1,15 GW fournie par une de ses centrales qui devait fermer en 2027.
En mars 2025, Amazon, Google et Meta, ont signé une missive écrite par l’Association nucléaire mondiale demandant le triplement des capacités de production d’énergie nucléaire d’ici 2050.
Pour limiter l’utilisation intensive d’IA génératrice, une solution partielle existe : la formation. Auprès du grand public, cette cause semble presque perdue d’avance.
« On peut rappeler aux gens certains ordres de grandeur en leur expliquant qu’une recherche sur ChatGPT génère 10 à 20 fois plus de gaz à effet de serre que sur Google mais ce type d’information est compliquée à faire passer », reconnaît Hervé Mignot qui enseigne la data science dans plusieurs écoles d’ingénieur dont ENSAI et ENSAE-Cepe.
Les entreprises risquent, elles, d’être plus réceptives. « Ce sujet d’acculturation est important auprès des sociétés car beaucoup doivent publier leur bilan carbone et l’usage de l’IA dans leurs services risque de dégrader leurs performances », détaille notre expert.
Des plateformes moins gourmandes existent
Plusieurs options existent aussi pour réduire l’empreinte environnementale de l’intelligence artificielle au sein des entreprises. Des outils spécialisés sur des missions très spécifiques sont bien moins consommateurs que les modèles « Frontier » comme ChatGPTqui sont entraînés sur d’immenses ensembles de données comportant des milliards de paramètres.
Les géants de la tech commencent déjà à proposer de tels outils. C’est le cas notamment de Google avec Gemma. Ces « petits » modèles sont construits à partir des mêmes technologies que celles utilisées pour créer Gemini mais ils sont beaucoup plus légers et donc plus frugaux. Microsoft a suivi le même schéma avec Phitout comme Mistral AI avecMistral Smallou Anthropic et son Haiku. Des options existent, utilisons les…