IA : une certaine prise de conscience des conséquences sur l’environnement
Les data centers et les mégamodèles consomment des quantités massives d’énergie et sont nuisibles à l’environnement. Les entreprises peuvent prendre des mesures pour réduire leur impact environnemental.
L’entraînement d’un modèle d’IA avancé nécessite du temps, de l’argent et des données de haute qualité. Il faut aussi de l’énergie, beaucoup d’énergie.
Entre le stockage des données dans des data centers de grande taille et l’utilisation de ces données pour entraîner un modèle de machine learning ou de deep learning, la consommation d’énergie générée par l’IA est élevée. Bien que rentables, ces « mégamodèles » posent un risque environnemental, selon les experts.
La consommation des mégamodèles
Par exemple, OpenAI a entraîné son modèle GPT-3 sur 45 téraoctets de données. Pour obtenir la version finale de MegatronLM, un modèle de langage similaire à GPT-3, mais plus petit, Nvidia a utilisé 512 GPU V100 pendant neuf jours.
Un seul GPU V100 peut consommer entre 250 et 300 watts. Si nous prenons l’hypothèse de 250 watts, alors 512 GPUS V100 dépensent 128 000 watts, soit 128 kilowatts (kW). Le fonctionnement pendant neuf jours signifie que l’entraînement du MegatronLM a consommé 27 648 kilowattheures (kWh).
D’après la U.S. Energy Information Administration, un ménage moyen utilise 10 649 kWh par an. Par conséquent, la formation de la version finale de MegatronLM a presque employé la quantité d’énergie que consomment en un an trois foyers américains. À titre de comparaison, selon une étude datant de 2016 de la Commission de la régulation de l’énergie, les foyers français consommaient en moyenne 4 679 kWh par an.
Si l’IA est une pratique énergivore, il y a des procédés pour pallier ce défaut. Ainsi, les nouvelles techniques réduisent la quantité de données nécessaires à l’entraînement des modèles d’apprentissage automatique et profond. Pour autant, de nombreux algorithmes ont encore besoin d’une énorme quantité de données, afin de mener à bien une phase d’entraînement initiale, et de données supplémentaires pour rester à jour.
Consommation d’énergie des centres de données
L’IA devenant de plus en plus complexe, il faut s’attendre à ce que certains modèles utilisent encore plus de données. C’est un problème, car les data centers sont les principaux responsables de la consommation d’énergie.
« Les centres de données auront probablement le plus d’impact sur l’environnement », déclare Alan Pelz-Sharpe, fondateur du cabinet d’analyse Deep Analysis.
Les exemples sont nombreux. The Weather Company d’IBM traite près de 400 téraoctets de données par jour pour permettre à ses modèles de prévoir le temps plusieurs jours à l’avance dans le monde entier. Facebook génère environ 4 pétaoctets (4 000 téraoctets) de données par jour.
En outre, les humains ont produit 64,2 zettaoctets de données en 2020. Cela représente environ 58 389 559 853 téraoctets, selon la société d’études de marché IDC.
Selon le groupe de réflexion sur l’énergie et le climat Energy Innovation, les plus grands centres de données ont besoin d’une capacité de production d’électricité de plus de 100 mégawatts, ce qui est suffisant pour alimenter quelque 80 000 foyers américains.
Il y a au moins 600 centres de données de très grande envergure dans le monde – des centres de données sont équipés de 5 000 à 10 000 serveurs par pied au carré (0,09 mètre carré).
D’un point de vue environnemental, la consommation d’énergie des centres de données et de l’IA est également un cauchemar.
L’IA, les données et l’environnement
Problème, l’énergie utilisée pour entraîner et inférer ses modèles d’IA n’est pas décarbonée. Malgré les mixtes énergétiques, les data centers continuent d’émettre des volumes de CO2 important.
« Nous avons une crise de la consommation d’énergie », déclare Gerry McGovern, auteur du livre World Wide Waste.
Gerry McGovernAuteur du livre « World Wide Waste »
« L’IA est très énergivore, et plus la demande en IA est élevée, plus nous consommons d’énergie », ajoute-t-il.
« Il ne s’agit pas simplement de l’énergie électrique pour former une IA », prévient l’auteur. « La conception et la fabrication des supercalculateurs, tout comme la puissance de calcul et le stockage nécessaires provoquent cette tension énergétique. »
Gerry McGovern met en avant les estimations selon lesquelles, d’ici 2035, les humains auront produit plus de 2 000 zettaoctets de données. « L’énergie nécessaire au stockage sera astronomique », anticipe-t-il.
Malheureusement, les plus grands consommateurs de données ne font pas grand-chose pour résoudre le problème de l’empreinte carbone ou de la consommation d’énergie de l’IA, selon Gerry McGovern.
« J’observe une certaine prise de conscience [du problème de l’empreinte carbone de l’IA], mais pas beaucoup d’actions », lance-t-il. « Les centres de données, qui sont la “source d’alimentation” de l’IA, se sont concentrés sur l’efficacité électrique et ont définitivement apporté des améliorations majeures au cours des 10 dernières années. » Si les centres de données sont devenus plus efficaces sur le plan électrique au cours de la dernière décennie, les experts estiment que l’électricité ne représente qu’environ 10 % des émissions de CO2 d’un centre de données, signale McGovern. L’infrastructure d’un data center, notamment le bâtiment et les systèmes de refroidissement, produit également beaucoup de gaz carbonique.
En outre, les centres de données utilisent également beaucoup d’eau pour le refroidissement par évaporation. Cette méthode de refroidissement réduit la consommation d’électricité, mais peut utiliser des millions de litres d’eau par jour et par data center. De plus, l’eau utilisée peut être polluée au cours du processus, prévient M. McGovern.
« Il y a toujours cette hypothèse générale selon laquelle le numérique est intrinsèquement écologique, mais c’est loin d’être le cas », affirme-t-il.
L’impact environnemental des entreprises
Si la société lambda ne peut pas changer la façon dont les géants de la technologie stockent leurs données, les entreprises soucieuses de leur empreinte écologique peuvent se concentrer sur la création de données de haute qualité, plutôt que de grandes quantités. Elles peuvent supprimer les données qu’elles n’utilisent plus, par exemple ; les organisations ont tendance à ne pas traiter 90 % des données 90 jours après leur stockage, selon McGovern.
Les entreprises peuvent également adapter la manière dont elles exploitent l’IA ou certains types de machine learning.
Elles peuvent réfléchir au cas d’usage spécifique qu’elles veulent obtenir. À noter que les différents types d’IA ont des coûts de consommation d’énergie supplémentaires.
Les entreprises peuvent se laisser emporter par l’idée qu’elles ont besoin d’un système d’apprentissage profond avancé qui peut tout faire, selon Alan Pelz-Sharpe. Cependant, si elles souhaitent s’attaquer à un cas d’utilisation ciblé, comme l’automatisation d’un processus de facturation, elles n’ont pas besoin d’un système avancé. Ces systèmes sont coûteux et exploitent beaucoup de données, ce qui signifie qu’ils ont une empreinte carbone élevée.
Un système spécialisé aura été formé sur une quantité de données beaucoup plus faible tout en étant susceptible de remplir un cas d’utilisation spécifique tout aussi bien qu’un système plus général.
« Parce qu’elle est hautement spécialisée, cette IA a été entraînée sur les données les plus précises possibles » tout en conservant un petit ensemble de données, affirme Alan Pelz-Sharpe. Un modèle de deep learning, quant à lui, doit brasser des quantités massives de données pour parvenir à quelque chose.