Getty Images/Cultura RF
Safran, Renault, Air Liquide : mode d’emploi d’une IA de confiance dans l’industrie
Pour les industriels l’IA de confiance est un enjeu de conformité à la régulation, mais aussi de confiance, un critère essentiel à l’adoption. Or l’IA de confiance ne se décrète pas. Elle se construit et se pilote par les risques. Explications.
Comment caractériser une intelligence artificielle de confiance et la démontrer ? En France, c’est la mission poursuivie par le programme Confiance.ai initié par l’État et financé à hauteur de 30 millions d’euros. À ce financement, s’ajoutent 15 millions apportés par des entreprises privées (Valeo, Renault, Naval Group, Airbus, Safran, Air Liquide, etc.) et des instituts de recherche (IRT SystemX, INRIA…).
Ensemble, académiques et industriels planchent sur cinq axes de travail : « la caractérisation de l’IA, l’IA de confiance by design, l’ingénierie de la donnée et des connaissances, la maîtrise de l’ingénierie système fondée sur l’IA et l’IA de confiance pour l’embarqué. »
60 systèmes critiques déployés chez Air Liquide
Le programme vise, entre autres, à fournir des outils de conformité. Mais la réglementation n’est pas une fin en soi, considère Fabien Mangeant, chief Data & AI officer d’Air Liquide. « Ce que nous voulons faire, c’est tirer parti de la réglementation pour renforcer ce que nous faisons déjà », déclare-t-il lors de l’évènement AI for Industry.
Fabien MangeantChief Data & AI officer, Air Liquide
Car des systèmes d’IA, l’industriel en dispose déjà en production « depuis des années ». Et le nombre de ces outils est amené à croître. « Nous devons faire confiance à ces systèmes pour des raisons de sécurité, ou pour des raisons business », explique le CDO.
Au total, Air Liquide compte 60 systèmes critiques. Son ambition en matière de confiance appliquée à l’IA est donc de se doter d’un cadre, aligné sur l’AI Act, et lui permettant de gérer ses différents systèmes d’IA par le biais d’une approche basée sur le risque.
L’entreprise ne part pas d’une feuille blanche, assure Fabien Mangeant. En outre, des outils existent déjà. « La confiance minimale et l’adoption se font à travers, disons, des compétences plus classiques comme le design, la recherche utilisateur, des composants courants pour la conception de produits numériques. »
Air Liquide a ensuite, en particulier dans le cadre de Confiance.ai, incorporé des solutions plus spécifiques. « Nous avons développé dans un écosystème, de nouvelles technologies, de nouvelles méthodologies », indique le chief Data & AI officer.
L’ingénierie des systèmes pour démontrer transparence, robustesse et interopérabilité
« Nous utilisons l’approche de l’ingénierie des systèmes pour définir ce qu’il faut faire pour, au moins, être conforme à la réglementation, et être en mesure de démontrer la transparence, la robustesse, l’interopérabilité et d’autres types de caractéristiques », détaille-t-il.
Air Liquide et les autres industriels ont mis au point au sein du consortium « des technobriques spécifiques » insérées dans leur « pipeline numérique », parmi lesquels des « sous-systèmes neuronaux ». Mais pour Fabien Mangeant, l’IA de confiance est « avant tout méthodologie et processus. »
Sans oublier une dose de gouvernance. Air Liquide annonce travailler désormais sur « la gouvernance de l’IA », dont un des enjeux consiste à s’assurer de la conformité « avec au moins les réglementations sur l’IA. » Le chantier est engagé, en commençant par les systèmes les plus critiques.
Quid des autres systèmes d’IA ? « Nous allons également travailler sur eux, parce que nous pensons que cela apportera de la valeur sur la qualité et la robustesse du système, y compris pour les processus internes », annonce l’expert.
Dans l’automobile également, la place de l’IA s’accroît, comme en témoigne Rodolphe Gelin, expert AI and Robotics du groupe Renault.
Les usages ne se cantonnent pas à la conduite et au véhicule. « Nous avons aussi de l’IA pour optimiser l’ensemble de nos processus et l’efficacité de notre ingénierie ou de notre chaîne d’approvisionnement », avec la même problématique : « Nous devons faire confiance aux outils d’IA que nous utilisons. »
De l’ingénierie de l’IA en renfort de l’ingénierie logicielle
Les IA dans l’automobile ont précédé la mise en place de la réglementation. C’est le cas par exemple avec le freinage d’urgence autonome. « Nous avons mis en œuvre cette fonction basée sur l’IA bien avant la loi sur l’IA […] Nous avons appliqué de nombreuses procédures pour valider des fonctions aussi complexes. »
Rodolphe GelinExpert AI and Robotics, groupe Renault
Renault a néanmoins renforcé ses moyens de contrôle. Le fabricant, à l’image des autres industriels membres de Confiance.ai, a intégré les outils développés au sein du programme commun. Ces procédures sont venues compléter les mesures appliquées pour l’ingénierie logicielle.
« Désormais, nous devons intégrer cette ingénierie de l’IA à la nouvelle façon de développer l’IA d’une manière appropriée, en tenant compte des exigences en termes de sécurité », déclare Rodolphe Gelin.
Différentes équipes de Renault, locales, et son centre d’excellence, centralisé et chargé du développement d’applications industrielles basées sur des composants d’IA, sont concernés par l’évolution des pratiques. L’IA est elle-même exploitée pour valider la robustesse du logiciel.
La simulation par l’IA est d’ailleurs à l’origine d’un changement dans la manière de concevoir des systèmes de conduite.
Traditionnellement, les applications étaient testées en parcourant de très nombreux kilomètres. « En amont, nous pouvons déjà valider la robustesse et l’exhaustivité des données, la qualité des données, l’absence de biais, etc. De cette manière, nous pouvons développer plus rapidement et de manière moins coûteuse […]. Nous essayons d’intégrer cette nouvelle ingénierie de l’IA dans notre processus de développement », explique l’expert de Renault.
Une première stratégie IA dans l’aviation en 2020
La R&D de l’aéronautique repense elle aussi ses méthodes de travail afin d’intégrer l’IA de manière sûre. Au départ, ce n’est pourtant pas une évidence, compte tenu de la durée des programmes de recherche – 10 à 20 ans – dans le secteur.
« La longueur de ce cycle n’est pas très adaptée à la technologie, en particulier dans le domaine numérique, et nous devons donc anticiper ce qui se profile à l’horizon », commente Daniel Duclos, directeur scientifique Département Sciences et Technologies Numériques de Safran Tech.
Daniel DuclosDirecteur scientifique, département Sciences et Technologies Numériques, Safran Tech
La solution ? « Nous essayons de faire avancer les questions relatives à l’IA dans le cadre du principal programme européen à long terme. Ce type de grand programme est très utile pour favoriser la coordination et la coopération entre tous les acteurs du domaine », répond-il.
Ces initiatives « nous aident à exploiter le potentiel de l’IA dans nos produits, et aussi, dans nos processus, dans la conception, dans la fabrication. C’est très important pour l’industrie technologique », poursuit-il.
Safran et les autres industriels de l’aéronautique n’ont pas attendu l’adoption de l’AI Act pour agir. « Très tôt, l’Union européenne a confié la responsabilité de l’application de l’IA à l’AESA, qui a publié en 2020 sa première stratégie en matière d’IA afin de mobiliser toute la communauté autour de cette question. »
Pas d’IA de confiance sans évaluation des performances réelles
En parallèle des actions prises par son écosystème, Safran (également membre de Confiance.ai) implémente ses propres mesures visant à améliorer la conception de l’IA.
Car toutes les options techniques en IA ne se valent pas. « Il existe de nombreuses façons de sélectionner des architectures d’IA pour construire des bases de données ou pour entraîner des systèmes, mais certaines sont meilleures que d’autres », confirme Daniel Duclos. « Nous nous efforçons de démontrer que tous les outils […] aident bien les ingénieurs à concevoir de meilleurs produits en termes d’IA ».
Encore faut-il pouvoir mesurer les performances réelles de ces produits. Or sans une bonne méthode d’évaluation, « vous n’êtes pas en mesure de construire des systèmes, vous êtes incapable de comparer différentes versions du même algorithme, etc. ». L’IA de confiance passe donc aussi par sa prise en compte dans la gestion de l’audit technique.
Pour approfondir sur Data Sciences, Machine Learning, Deep Learning, LLM
-
Projets IA : comment éviter de tomber dans des gouffres financiers (Gartner)
-
GitHub renforce Copilot Autofix alors que l’IA ralentit la livraison logicielle
-
« L’IA reste une très, très grande priorité pour nous » (Clara Chappaz, secrétaire d’État à l’IA)
-
Lenovo : « nos super-serveurs sont conçus pour durer plus longtemps »