masterzphotofo - Fotolia

La R&D d’EDF se branche sur l’IA générative

En réaction à l’explosion des modèles d’IA générative, EDF a repositionné sa R&D pour concentrer ses efforts. L’objectif est d’accroître la maîtrise des LLMs et d’accélérer leur déploiement auprès de l’ensemble des métiers. Voici les leçons que l’énergéticien en a tirées.

La Recherche & Développement d’EDF est « la plus importante parmi les énergéticiens européens », se félicite Maud Imberty, cheffe de programme R&D en charge des projets d’Intelligence artificielle (IA) pour la clientèle résidentielle du groupe. Au sein de ses laboratoires, EDF emploie ainsi 1 800 ingénieurs chercheurs partout dans le monde (Chine, États-Unis, Singapour, Belgique, Allemagne), même si l’essentiel reste localisé en France.

Accélérer la recherche au bénéfice de tous les métiers

Parmi ses experts, EDF compte une centaine de chercheurs spécialisés dans l’IA. Récemment, la feuille de route de ces spécialistes a profondément évolué à la suite de « l’arrivée massive des modèles d’IA générative. »

La R&D de l’énergéticien est confrontée au besoin « d’accélérer sa recherche au bénéfice de l’ensemble des métiers du groupe (production, énergies renouvelables, distribution, commercialisation, etc.). Tous doivent accéder aux apports de l’IA générative », insiste Maud Imberty lors du DIMS 2024.

Pour permettre cette accélération, une stratégie coordonnée a été mise en place à l’échelon du groupe. Elle passe entre autres par la réalisation de tests collectifs sur l’IA générative et par un « repositionnement de la R&D [pour] concentrer l’effort de recherche sur les sujets plus en amont. »

Dans ce cadre, un partenariat de recherche a été signé avec Illuin Technology, un éditeur français qui emploie 100 experts et qui totalise plus de 5 000 jours de R&D en 2023 – d’après son fondateur et CEO, Robert Vesoul.

Priorité à des modèles souverains, sobres et éthiques

En matière d’IA, et en particulier d’IA générative, la R&D d’EDF revendique un positionnement axé sur les « modèles souverains » pour des cas d’usage ciblés sur « l’exploration de bases de données très volumineuses, dont celle du nucléaire. »

La souveraineté se justifie par la sensibilité des domaines auxquels sont appliqués ces modèles. EDF veut en outre se concentrer sur des « modèles sobres et éthiques. »

Sur la sobriété, Maud Imberty rappelle que la consommation des datacenters représente 1 et 1,3 % de l’électricité consommée dans le monde (460 tWh en 2022) – soit l’équivalent de la consommation de la France. En 2027, cette consommation devrait atteindre les 1 000 tWh (térawatt-heure). Et l’IA pourrait accentuer encore ce bilan, comme l’illustre le dernier rapport environnemental de Microsoft (+29,2 % d’émissions en 2023 sur un an).

Afin de prendre en compte cette problématique énergétique, la R&D d’EDF mesure la consommation de ses modèles, sur les phases d’entraînement comme d’inférence, via le calcul du coût énergétique d’une requête. « Une requête Google, c’est 0,3 à 0,4 Wh. Une requête avec une IA générative, c’est entre huit et dix fois plus », prévient la cheffe de programme R&D.

Le bilan environnemental de la GenAI n’est cependant pas le seul thème de recherche des équipes EDF. Les leviers de création de valeur et les verrous au déploiement de l’IA générative constituent d’autres axes de travail. Ces verrous, Maud Imberty en cite plusieurs, dont les hallucinations et la capacité à exposer un client à une application à base d’IA générative.

Pour faire avancer ses connaissances dans ce secteur, EDF collabore avec des partenaires, dont Illuin. En 2023, les deux acteurs ont collaboré au développement d’un moteur de recherche documentaire via une architecture RAG (Retrieval Augmenterd Generation).

La plus-value du fine-tuning sur les performances des petits modèles

« La complexité du cas d’usage EDF était très forte puisque les assets documentaires sont historiquement importants, très variés et techniques », ajoute Robert Vesoul.

Dans le cadre de ce projet, plusieurs étapes ont été menées : prétraitement de 2 000 documents de natures variées, conception d’un système RAG, fine-tuning de LLM (LLaMa2 13B et 70B) et évaluation de modèles.

Concernant l’évaluation, le dirigeant d’Illuin souligne que peu de métriques fonctionnelles solides existent aujourd’hui pour évaluer précisément les performances d’un modèle pour une tâche donnée.

La R&D d’EDF et son partenaire ont donc souhaité mieux maîtriser l’évaluation. Ils ont défini pour cela trois critères fonctionnels (précision, exhaustivité, factualité).

De ses travaux, EDF a retiré plusieurs enseignements.

Premier constat : « les modèles fine-tunés sont nettement plus performants que des modèles open source sur étagère ».

Afin de se doter de modèles plus petits et plus frugaux, l’énergéticien a dédié une grande partie de ses travaux au fine-tuning de LLM. Par du fine-tuning, un LLaMa2 13B (soit 13 milliards de paramètres) est en capacité de rivaliser avec GPT-4 sur les trois critères définis. Quant à LLaMa2 70B, une fois fine-tuné, il dépasserait le modèle d’OpenAI – toujours sur ces critères.

Mais pour atteindre ces résultats, le prétraitement de documents est également critique, prévient Maud Imberty. « Ce n’est pas magique. Il faut impérativement maîtriser son corpus et la façon dont on le manipule. »

Trois approches et trois équations différentes

Pour déployer la Gen AI, plusieurs pistes sont explorées. Trois approches sont possibles. Il s’agit du recours aux API et aux solutions de tiers (dont OpenAI), le RAG, et le fine-tuning de modèles.

La première solution, qui nécessite de consommer du service cloud de fournisseurs américains, présente « un danger ». Néanmoins, « ces modèles sont extrêmement performants », précisait la responsable lors des Ateliers de l’IA. EDF ne se cantonne donc pas à une seule voie et exploite les trois alternatives dans ses développements. Le choix est affiné en fonction des cas d’usage.

À chaque approche, sa complexité et ses coûts. Le fine-tuning est long, complexe et coûteux, notamment en énergie. L’entraînement génère une dépense énergétique… mais l’inférence aussi.

Une équation, notamment économique, est à résoudre pour déterminer l’approche et le modèle les plus adéquats. Plusieurs paramètres entrent là encore en ligne de compte : le coût énergétique, la difficulté d’implémentation et la facture pour l’entreprise, lors de l’utilisation ou de l’inférence.

Des modèles de plus petite taille, « plus spécialisés, orchestrés, plus facilement implémentables », peuvent ainsi s’avérer préférables. Maud Imberty insiste également sur les enjeux éthiques liés à l’utilisation de l’IA générative.

« Je suis persuadée que la recherche française et l’entraînement de modèles sur des données contrôlées, sans biais éthique, certifiées, sont des moyens d’être plus vertueux. L’AI Act constitue également une perspective réjouissante en matière d’éthique », considère-t-elle.

Pour approfondir sur Data Sciences, Machine Learning, Deep Learning, LLM

Close