IA verte et frugale : quel intérêt pour les entreprises ?
Introduction
Les experts du GIEC sont formels. Les activités humaines influent directement sur le réchauffement climatique.
Et le numérique dans tout ça ? De nombreuses études ont été produites par des institutions indépendantes, des think tanks et des associations. Une méta-étude publiée dans la revue Patterns suggère que le numérique générerait 2,1 à 3,9 % des émissions à effets de serre mondiales en 2020, soit officiellement plus que le secteur aérien à 2,5 % (des études tendent à prouver que l’aérien représenterait en réalité près de 5 % des GES).
Toutes ces données peuvent varier par pays. Ainsi, dans une étude approfondie, l’ADEME a estimé que les infrastructures et les équipements numériques « sont responsables de 10 % de la consommation électrique française » et « de 2,5 % de l’empreinte carbone de la France ». Le document long de 264 pages démontre que l’autorité éprouve des difficultés à mesurer les usages et les impacts des data centers dans l’hexagone, et se concentre à prouver que la production et le fonctionnement des appareils (ordinateurs, smartphones, TV, objets connectés, etc.) jouent fortement dans ces émissions.
L’article publié dans Patterns reconnaît les bienfaits potentiels de l’IA pour tenter d’amoindrir le réchauffement climatique, mais pointe rapidement des risques importants. Du fait de la génération massive de données et de la volonté de certains de toutes les traiter, l’intelligence artificielle pourrait représenter à l’avenir une des activités IT les plus émettrices en CO2.
Un autre article de recherche estimait que l’entraînement d’un seul modèle NLP pourrait générer cinq fois plus de CO2 (soit 284 tonnes de CO2) qu’une voiture pendant toute sa durée de vie. Cette évaluation catastrophique avait soulevé des critiques. D’autres chercheurs avaient estimé que les émissions liées à la production d’un modèle de machine standard généreraient seulement 4,5 kg de CO2 (l’équivalent de 25 kilomètres en voiture, selon un convertisseur proposé par l’ADEME). Oui, mais si cet entraînement est rejoué à chaque itération du modèle ?
Dans cette bataille de chiffres, Google et OpenAI ont récemment dévoilé des estimations d’émissions de GES de leurs modèles NLP. En 27 jours d’entraînement, le modèle de génération de langage GPT-3 aurait émis 552 tonnes d’équivalent de dioxyde de carbone (tCO2), contre 59 tonnes net en 15 jours pour Switch Transformer de Google. Et au géant du cloud de préciser que l’entraînement de ses quatre plus gros modèles NLP représenterait 0,005 % de sa consommation électrique totale de 2019 (12,2 TWh).
L’article publié dans Patterns mentionne une autre étude. Celle-ci indique qu’entre 2012 et 2018, la quantité de calcul utilisé pour entraîner les modèles d’IA les plus denses a été multipliée par 300 000. Les auteurs de cette analyse connaissent leur sujet… ils travaillent pour OpenAI.
Et encore, l’on n’évoque ici que l’entraînement des modèles : leurs inférences génèrent aussi des gaz à effet de serre. D’autant que ces émissions varient suivant un grand nombre de critères : le data center, la station de travail ou le HPC qui a servi pour l’entraînement, la source d’énergie qui a alimenté ces infrastructures, l’architecture du modèle de machine learning, la distance entre l’infrastructure et l’appareil sur lequel les résultats seront livrés, etc., etc.
La plupart des chercheurs – data scientists – des cabinets de conseils s’accordent pour dire qu’il faut anticiper ce phénomène grandissant. D’autant que l’Union européenne pousse des régulations de plus en plus drastiques, pour que les entreprises communiquent précisément sur leurs émissions à effet de serre et les réduisent fortement d’ici 2030.
Mais au-delà d’une problématique écologique, une vision plus frugale de l’intelligence artificielle et du traitement de données en général représente un véritable intérêt pour les entreprises.
Car entraîner et inférer des modèles statistiques de machine learning ou de deep learning coûte cher. D’autant que la pénurie de semiconducteurs ne risque pas d’arranger la situation, et ce même si les fournisseurs de cloud affirment disposer de ressources IT « presque illimitées ». Selon les avis des experts, créer et déployer des modèles ML optimisés pour certaines infrastructures ou certains équipements dans des cas d’usage spécifiques sont des moyens :
- de mener à bien des projets de data science,
- de réaliser des économies à l’entraînement et à l’inférence,
- d’accélérer ces deux phases essentielles de l’IA,
- d’atteindre les ROI fixés au départ,
- et de réduire ses GES par la même occasion.
Ce guide essentiel explore les moyens de répondre aux défis RSE qui s’imposent aux entreprises et dresse un portrait des différentes stratégies et techniques permettant de réduire à la fois l’impact énergétique et financier des projets d’intelligence artificielle avant de se pencher sur le cas spécifique des systèmes embarqués où la frugalité devient une nécessité.
1Constat-
L’IA, la solution et le problème
IA : une certaine prise de conscience des conséquences sur l’environnement
Les data centers et les mégamodèles consomment des quantités massives d’énergie et sont nuisibles à l’environnement. Les entreprises peuvent prendre des mesures pour réduire leur impact environnemental. Lire la suite
Réussir son projet ESG grâce à l’IA et à la donnée
Les réglementations imposent aux entreprises de plus communiquer sur leurs activités polluantes et d’en réduire les effets. Le fondateur du spécialiste DreamQuark, Nicolas Méric explique pourquoi l’Intelligence Artificielle et la donnée sont deux pièces maîtresses de ces stratégies ESG/RSE à mettre en place. Lire la suite
Impératif « Net Zéro » : des objectifs européens aux projets IT des entreprises
Les objectifs Net Zero de l’Union européenne en 2050 se traduisent très concrètement par de nouveaux impératifs pour les entreprises. La DSI a une place centrale à jouer dans ces évolutions ; qui sont aussi des opportunités, explique Talan. Lire la suite
Et si l’avenir de l’IA était frugal ?
Alors que les immenses réseaux de neurones conçus et opérés par les GAFAM éblouissent par leurs exploits, certains en viennent à oublier la réalité du terrain, selon Théo Alves Da Costa, Manager Data Science chez Ekimetrics. La nature même des données des entreprises et leurs objectifs, souvent bien plus rationnels, appellent à une forme de frugalité. Lire la suite
Mesurer l’empreinte ambivalente de l’IA sur l’environnement
Les entreprises peuvent utiliser l’IA pour aider à protéger l’environnement, notamment en l’utilisant pour prévenir les incendies de forêt et réduire les déchets des usines. Néanmoins, l’IA a sa propre empreinte carbone. Lire la suite
2Travaux en cours-
Des optimisations possibles, quelle que soit la taille du modèle
IA frugale : trois règles « simples » pour optimiser les algorithmes
Dans ce conseil, Théo Alves Da Costa, Manager Data Science chez Ekimetrics, présente trois règles « simples » pour tirer le meilleur parti de l’IA en entreprise, sans exploser les coûts économiques et écologiques. Lire la suite
Deep learning : les promesses de la technique « Mixture of Experts »
La technique Mixture of Experts connaît un regain d’intérêt chez les géants technologiques. Les chercheurs de Google, Microsoft et Facebook l’exploitent pour améliorer les performances de leurs mégamodèles NLP tout en réduisant les capacités de calculs nécessaires à leur entraînement et à leur inférence. Lire la suite
Traitements IA : pourquoi il ne faut pas sous-estimer les CPU
Les GPU sont souvent présentés comme le véhicule de choix pour exécuter les workloads IA, mais la pression est forte pour étendre le nombre et les types d’algorithmes qui peuvent fonctionner efficacement sur les CPU. Lire la suite
HPE rachète Determined AI pour optimiser l’IA sur ses HPC
Hewlett Packard Enterprise a renforcé lundi son portefeuille dédié à l’intelligence artificielle avec l’acquisition de Determined AI, une startup basée à San Francisco et spécialisée dans l’optimisation de l’entraînement de modèles de machine learning et de deep learning. Lire la suite
IA Frugale : comment entraîner des modèles avec peu de données ?
Entraîner des modèles de machine learning avec peu de données, est-ce possible ? Oui, mais les spécialistes considèrent que les techniques d’enrichissement sont suffisamment performantes pour généraliser les apprentissages de leurs modèles. Lire la suite
3Cas d’usage-
Machine learning embarqué : quand la frugalité devient une nécessité
Microcontrôleurs et IA : les défis du machine learning embarqué
L’exécution de modèles de machine learning sur des microcontrôleurs embarqués présente de sérieux avantages, mais aussi des limites que les experts s’efforcent de surmonter. Lire la suite
IA frugale : les précautions à prendre avant de déployer TinyML
L’approche TinyML dispose d’atouts indéniables pour favoriser des déploiements frugaux de l’IA en périphérie. Mais il faut avoir conscience des nombreuses exigences logicielles et matérielles. Voici un ensemble de bonnes pratiques que les développeurs doivent connaître pour simplifier ce processus complexe. Lire la suite
Pourquoi l’optimisation des modèles d’IA est cruciale
Alors que de plus en plus d’entreprises se lancent dans l’IA Edge, les praticiens de cette technologie en plein essor tentent de relever les défis de l’optimisation de l’apprentissage automatique sur des appareils peu puissants. Lire la suite