Pourquoi l’intelligence artificielle est-elle si énergivore ? 

112

Les émissions carbone de Google ont grimpé de 48% en cinq ans à cause de l’explosion de l’intelligence artificielle (IA), a indiqué mardi le géant américain, soulignant l’un des problèmes majeurs du développement fulgurant de cette technologie: sa voracité énergétique. 

Pourquoi l’IA consomme-t-elle de l’énergie? 

Les modèles de langage sur lesquels sont basés les IA génératives exigent d’énormes capacités de calcul pour s’entraîner sur des milliards de données, ce qui nécessite des serveurs puissants. Par la suite, chaque fois qu’un utilisateur envoie une requête à ChatGPT ou toute autre IA générative, cela fait fonctionner des serveurs situés dans un centre de données. Ces serveurs consomment de l’électricité, chauffent et doivent être refroidis avec des systèmes qui nécessitent à leur tour de l’énergie. Selon l’Agence internationale de l’énergie (AIE), les centres de données utilisent en général près de 40% de leur électricité pour alimenter les serveurs et 40% pour les refroidir. Une requête à ChatGPT nécessite ainsi en moyenne 10 fois plus d’énergie qu’une simple requête sur le moteur de recherche Google, ont montré plusieurs études. Or le boom de l’IA depuis 2022 a conduit les géants d’internet, comme Amazon, Google et Microsoft, à investir massivement dans la création de centres de données à travers le monde. Google met notamment en avant, dans son rapport environnemental, la hausse de la consommation d’énergie dans ses centres de données ainsi que le bond des émissions liées à la construction de nouveaux «data centers» et la modernisation de ceux existants. 

Combien l’IA consomme-t-elle d’énergie? 

Avant l’engouement pour l’intelligence artificielle, les centres de données représentaient environ 1% de la consommation électrique mondiale, selon l’AIE. Si on ajoute l’IA et le secteur des cryptomonnaies, les centres de données ont consommé près de 460 Twh d’électricité en 2022, soit 2% de la production mondiale totale, d’après l’institution. Un chiffre qui pourrait doubler en 2026, pour atteindre 1.000 Twh, ce qui correspondrait à la consommation en électricité du Japon, met-elle en garde dans un rapport. Alex de Vries, économiste à l’Université libre d’Amsterdam, a de son côté modélisé l’usage électrique nécessaire pour l’intelligence artificielle seule à partir des projections de vente de l’entreprise Nvidia, dont les processeurs sont indispensables pour entraîner les modèles d’IA. Si les estimations de vente pour 2023 de Nvidia sont correctes et si tous les serveurs tournent au maximum de leur capacité, ils pourraient consommer entre 85,4 et 134 Twh par an, soit ce que consomme un pays comme l’Argentine, écrit-il dans un article. «Les chiffres que j’ai mis dans mon papier étaient plutôt prudents au départ parce qu’ils ne prennent pas en compte des processus comme les besoins en refroidissement», a-t-il détaillé. L’année dernière, les ventes de Nvidia ont dépassé leurs projections, donc les chiffres pourraient être encore plus élevés, a-t-il poursuivi.