La consommation énergétique d’une requête sur ChatGPT ou ses concurrents n’est pas connue précisément. Une chose est certaine : elle est très nettement plus élevée que celle d’une requête sur un moteur de recherche, ce qui pourrait freiner le déploiement grand public de l’IA générative.

Dans un article paru le 10 octobre dans la revue scientifique Joule, le chercheur néerlandais Alex de Vries a tenté d’estimer la consommation de ressources induite par une simple requête sur ChatGPT. Résultat : entre 2 et 3 Wh (soit l’équivalent d’une heure de consommation d’une LED), et entre 2 et 5 cl d’eau pour le refroidissement des serveurs.

« L’exécution d’un programme d’intelligence artificielle entraîne trois types de consommation énergétique » rappelle le programme ECOInfo du CNRS, dédié à la recherche sur une informatique durable : la consommation des processeurs exécutant le programme, la consommation supplémentaire des serveurs (carte mère, alimentation, ventilation) et enfin celle des équipements permettant d’utiliser les serveurs (équipement informatique supplémentaire en réseaux ou écrans), ou pour les data center, notamment en climatisation.

Seul le premier de ces trois niveaux est facile à mesurer. Les deux autres ne peuvent être qu’estimés, selon des choix méthodologiques toujours discutables. C’est ce qui explique que les résultats quantitatifs soient variables et les résultats des études (notons que les grands acteurs de l’IA n’en ont jamais réalisés) difficiles à comparer entre eux : ainsi les travaux de l’université de Riverside (Californie) estiment la consommation d’eau d’une requête sur ChatGPT à 50 cl, soit dix fois plus que dans l’étude citée plus haut. Mais ces auteurs ont choisi de comptabiliser la consommation d’eau de l’ensemble du processus, y compris pour la fabrication des semi-conducteurs entrant dans la fabrication des ordinateurs.

Cette consommation importante de ressource concerne l’ensemble du numérique. Comme le rappelle l’ingénieur Hugues Ferreboeuf, chef de projet numérique dans l’ONG The Shift project, « la consommation énergétique directe du numérique, c’est-à-dire l’énergie de fabrication et d’utilisation de l’ensemble des équipements – serveurs, réseaux, terminaux – augmente de 9 % par an. La part du numérique dans les émissions mondiales de gaz à effet de serre a augmenté de moitié depuis 2012 passant de 2,5 % à 3,7 % ». Le numérique émet ainsi quasiment autant de gaz à effet de serre que l’aviation (avec de grandes variations d’un pays à l’autre en fonction du degré de carbonation de la production électrique), et le développement de l’IA promet d’augmenter encore ces émissions. Les programmes d’IA sont en effet doublement consommateurs : lors de leur exécution – comme tout programme – mais aussi durant leur phase d’entraînement préalable, parfois très longue.

De plus, ils suscitent une sorte d’appel d’air, qui ne se limite pas à l’effet de curiosité initiale suscité par Chat GPT, augmentant l’usage du numérique pour des utilisations nouvelles. Les industriels sont très conscients de ce talon d’Achille de l’IA. Selon les calculs d’Alex de Vries, la consommation électrique de Google augmenterait d’environ 30 TWh (la consommation totale de l’Irlande) par an si chaque requête sur le célèbre moteur de recherche était traitée par une IA. C’est sans doute ce qui explique que ces dispositifs, techniquement au point, qui répondraient à une question non par une liste de sites, mais par un résumé synthétique, ne soient pas encore mis à disposition du grand public : le coût énergétique serait trop important pour leurs exploitants. Ces derniers ont commencé à s’adapter à cette nouvelle situation en « suivant le soleil », c’est-à-dire en faisant tourner leurs machines dans les régions du monde ensoleillées – donc bénéficiant d’une production photovoltaïque abondante – à l’heure de la requête. Mais il est douteux que cela suffise à faire face à l’augmentation de la consommation énergétique induite par l’explosion de l’IA.