Datacenters : pourquoi l’IA les fait surchauffer
L’impact de l’IA sur les datacenters soulève des préoccupations environnementales, car la demande croissante d’énergie provenant de technologies telles que ChatGPT pèse sur les ressources et remet en cause les efforts de développement durable.
Depuis qu’OpenAI a lancé ChatGPT à la fin de l’année 2022, on assiste à un boom de l’IA dans toutes les industries technologiques, ce qui a considérablement augmenté la consommation et la demande d’électricité des data centers.
Les chatbots d’IA générative (GenAI), comme ChatGPT, utilisent une technologie de traitement du langage naturel pour interpréter les messages de manière conversationnelle, ce qui réduit considérablement la barrière d’adoption par les utilisateurs. ChatGPT est ainsi devenu une attraction virale instantanée et, en deux mois seulement, le logiciel a gagné plus de 100 millions d’utilisateurs.
Cette croissance rapide est souvent considérée comme le point d’accélération des projets d’IA destinés au grand public. Depuis le lancement de ChatGPT, d’autres géants de la technologie, dont Google, Microsoft et Meta, ont lancé leurs propres chatbots à grand modèle linguistique, attirant encore plus d’utilisateurs à l’échelle mondiale. La consommation d’électricité de ces technologies est extrêmement élevée, ce qui soulève des inquiétudes quant à l’impact environnemental de l’IA et à la consommation globale d’énergie dans les datacenters.
Cet article explique comment l’essor de l’IA affecte l’environnement, notamment la façon dont elle utilise l’énergie, les impacts réels sur le monde et les moyens potentiels pour les data centers d’équilibrer les charges de travail de l’IA tout en atténuant l’impact sur le climat.
Pourquoi l’IA consomme-t-elle autant d’énergie dans les datacenters ?
L’Agence internationale de l’énergie (IEA) a constaté que les datacenters et les réseaux de transmission de données représentent chacun 1 à 1,5 % de la consommation mondiale d’électricité et 1 % des émissions de gaz à effet de serre liées à l’énergie. La demande d’énergie met à rude épreuve les réseaux électriques dans de nombreuses régions, et les émissions qui en résultent nuisent à l’environnement de diverses manières.
Selon un rapport publié en mai 2024 par l’Electric Power Research Institute (EPRI), la consommation d’électricité des grands datacenters a plus que doublé entre 2017 et 2021, avant l’essor de l’IA. Une grande partie de cette croissance a été alimentée par des services numériques disponibles dans le commerce, tels que le streaming vidéo et les applications de communication. Aujourd’hui, la prolifération de l’IA alimente encore davantage la croissance de la charge des datacenters.
Les charges de travail de l’IA sont plus gourmandes en énergie que les autres technologies numériques. Par exemple, le rapport de l’EPRI estime que les requêtes Google traditionnelles ne consomment que 0,3 wattheure chacune, alors que les requêtes ChatGPT consomment environ 2,9 wattheures chacune. Cela représente près de 10 fois la consommation d’électricité. Les modèles GenAI qui créent des images, du son et des vidéos consomment encore plus d’électricité par requête.
Selon les estimations de l’EPRI, les charges de travail de l’IA utilisent 10 à 20 % de l’électricité des datacenters. Ces statistiques soulèvent des inquiétudes alors que l’IA se développe et s’étend rapidement dans les entreprises et les secteurs commerciaux. Les analystes industriels de l’EPRI ont élaboré des scénarios de croissance de la charge des centres de données dans cette optique. Ils prévoient que ceux-ci pourraient consommer de 4,6 % à 9,1 % de la production annuelle d’électricité aux États-Unis d’ici 2030, contre une estimation de 4 % en 2024.
Selon le rapport de l’EPRI, les développeurs construisent actuellement de nouveaux data centers d’une capacité pouvant atteindre 1 000 mégawatts, ce qui est suffisant pour alimenter 800 000 foyers. L’EPRI a identifié trois facteurs principaux qui contribuent à la forte consommation d’énergie des charges de travail de l’IA :
- Le développement de modèles. Les modèles d’IA doivent être développés et affinés avant d’être entraînés. Ce processus utilise environ 10 % de leur empreinte énergétique, selon l’EPRI.
- L’entraînement du modèle. Un algorithme d’IA doit traiter de grandes quantités de données pour former un modèle. Ce processus nécessite « des efforts de calcul considérables et une dépense d’énergie élevée pendant de longues périodes », ce qui représente environ 30 % de l’empreinte énergétique, selon l’EPRI.
- L’utilisation. Le déploiement et l’utilisation d’un modèle d’IA entièrement développé et entraîné dans des applications réelles nécessitent des calculs intensifs, ce qui, selon l’EPRI, représente environ 60 % de leur empreinte énergétique.
L’IA doit traiter d’énormes volumes de données et effectuer des calculs complexes, ce qui explique qu’elle consomme beaucoup plus d’électricité que les autres technologies numériques. Au fur et à mesure que ces technologies mûrissent et prolifèrent, elles deviendront probablement plus complexes et demanderont plus d’énergie.
Exemples de l’impact de l’IA sur l’environnement
L’AIE a créé le scénario « Net Zero Emissions by 2050 », qui détaille la voie à suivre pour une transition mondiale vers une énergie propre et devrait limiter le réchauffement de la planète à 1,5 degré Celsius.
Le sixième rapport d’évaluation du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) décrit les risques. Selon le GIEC, ces risques comprennent des phénomènes météorologiques extrêmes fréquents, la disparition de certains écosystèmes entiers, des vagues de chaleur exceptionnelles et des cyclones tropicaux plus intenses. Une augmentation des conditions météorologiques sévères entraînera des sécheresses extrêmes, des risques d’inondation accrus et des répercussions sur la disponibilité de l’eau et des ressources.
Augmentation des émissions de carbone. Une étude réalisée par des chercheurs de l’université du Massachusetts Amherst a estimé que l’entraînement d’un grand modèle d’IA pouvait produire plus de 626 000 livres d’équivalent de dioxyde de carbone. Selon les chercheurs de l’université, cela représente plus de cinq fois les émissions d’une voiture sur toute sa durée de vie.
Utilisation de ressources non renouvelables. Selon un rapport du Programme des Nations unies pour l’environnement, des minéraux critiques et des éléments de terres rares sont utilisés pour créer les puces qui alimentent l’IA. Ces matériaux sont potentiellement limités et difficiles à recycler, et ils sont souvent extraits selon des méthodes destructrices pour l’environnement. Les déchets électroniques qu’ils produisent peuvent également contenir des substances dangereuses.
Augmentation de l’utilisation de l’eau. Les datacenters consomment de l’eau pour refroidir le matériel qui fait tourner les applications d’intelligence artificielle. Selon un article paru dans Yale Environment 360, un utilisateur qui utilise ChatGPT entre 10 et 50 fois fait consommer un demi-litre d’eau à un datacenter. ChatGPT compte des millions d’utilisateurs, ce qui signifie que la consommation totale d’eau peut s’élever à des centaines de millions de litres d’eau rien que pour refroidir l’équipement qui fait fonctionner l’IA.
Ce ne sont là que quelques exemples des contraintes que l’IA fait peser sur l’environnement. Une approche prudente et des stratégies réfléchies sont nécessaires pour contrôler ces impacts environnementaux et pour construire un avenir plus durable dans l’industrie.
Les scénarios potentiels pour l’avenir
L’EPRI a créé des scénarios qui projettent le taux de croissance de la consommation d’électricité des data centers.
Le premier scénario part d’une base de référence de la charge moyenne des datacenters en 2023, ce qui équivaut à un peu plus de 150 000 000 mégawattheures (MWh). Dans le scénario du taux de croissance le plus élevé, l’EPRI prévoit une charge moyenne des datacenters de plus de 400 000 000 MWh d’ici 2030, soit un changement de croissance stupéfiant de 166 %. À l’inverse, le scénario du taux de croissance le plus faible prévoit une charge moyenne des datacenters inférieure à 200 000 000 MWh d’ici à 2030.
Bien que le scénario du taux de croissance le plus élevé soit impressionnant, il ne s’agit que de projections et beaucoup de choses peuvent changer au cours de la prochaine décennie. Certains facteurs sont hors de notre contrôle, comme la demande des consommateurs pour les technologies d’IA, mais d’autres peuvent être contrôlés.
Les bonnes pratiques de l’EPRI pour atténuer l’impact négatif
L’EPRI propose quelques domaines sur lesquels les datacenters devraient se concentrer pour freiner l’augmentation de leur consommation d’énergie, maintenir les niveaux de charge vers le bas des scénarios de taux de croissance projetés et atténuer les impacts environnementaux des charges de travail de l’IA.
Efficacité opérationnelle et flexibilité. Une stratégie globale est nécessaire pour répondre à la demande croissante d’énergie et limiter la croissance des émissions. Les stratégies consistent notamment à investir dans des processeurs et des architectures de serveurs plus économes en énergie, à s’appuyer sur la virtualisation pour améliorer la flexibilité des ressources, à adopter des technologies de refroidissement plus efficaces et à utiliser la surveillance continue et l’analyse, pour garantir une efficacité opérationnelle optimale et une meilleure adaptabilité.
Collaboration grâce à un modèle d’économie d’énergie partagée. Les compagnies d’électricité doivent équilibrer les ressources entre les clients habituels et les datacenters dont la croissance de la charge est accélérée et imprévisible. Pour mieux gérer cette situation, les centres de données peuvent collaborer plus étroitement avec les compagnies d’électricité afin de créer une économie d’énergie partagée. Par exemple, les compagnies d’électricité peuvent utiliser les générateurs de secours des datacenters comme ressource de fiabilité du réseau, offrant ainsi une relation plus symbiotique.
Prévision et modélisation de la croissance de la charge. Grâce à des outils de prévision et de modélisation plus précis, les data centers et les compagnies d’électricité peuvent mieux collaborer pour anticiper les demandes d’interconnexion. Cela peut aider les compagnies d’électricité à comprendre la demande totale d’électricité que les centres de données requièrent au fil du temps. Ce faisant, elles peuvent éviter de solliciter le réseau énergétique et introduire de la flexibilité dans la bande passante opérationnelle et la gestion des ressources.
Mise à niveau du data center. Pour répondre aux exigences croissantes de l’IA dans les datacenters, les administrateurs devraient envisager d’adopter des stratégies de calcul plus flexibles et des outils de gestion de serveur efficaces. Il est essentiel d’utiliser du matériel de calcul avancé, comme les unités de traitement tensoriel, les réseaux de portes programmables (FPGA ou field-programmable gate array, en anglais) et les GPU.
Les administrateurs doivent mettre en œuvre des techniques algorithmiques économes en ressources, telles que l’élagage et la quantification. Il est également essentiel de passer à des sources d’électricité sans carbone ou à faible teneur en carbone et d’adopter des systèmes d’alimentation plus propres.
Il est encore possible d’atteindre le scénario d’émissions nettes nulles d’ici à 2050, malgré la demande massive d’énergie pour alimenter les charges de travail de l’IA. Toutefois, la voie à suivre est étroite et nécessitera une coopération mondiale pour s’assurer que les data centers peuvent limiter l’utilisation de l’énergie et consommer de l’électricité de manière plus durable, tout en alimentant le paysage technologique en constante évolution.