AI France Summit 2023 : l’AI Act inquiète les éditeurs français
Les députés européens ont l’espoir non dissimulé, qu’à l’instar du RGPD, l’AI Act pave la voie à un standard international. Or, les éditeurs et les entreprises membres de Numeum craignent que les acteurs américains et chinois, déjà avancés en matière d’IA, soient finalement avantagés malgré ce renforcement de la réglementation.
Lundi 3 juillet, Numeum, une association qui rassemble plus de 2 500 éditeurs, organisations et entreprises, organisait l’AI France Summit 2023. L’occasion de revenir sur les efforts de réglementation en cours au niveau européen. Pour rappel, dans le « nouveau paquet législatif européen » (Data Act, Data Governance Act, Digital Services Act, Digital Markets Act, etc.) figure l’AI Act.
Cette réglementation vise à classer les systèmes d’IA suivant quatre niveaux de risque (minimal, limité, élevé, et inacceptable), peu importe le domaine d’application dans lequel ils sont employés.
La proposition de la Commission européenne avait été présentée en avril 2021. Le 14 juin 2023, après avoir réalisé 771 amendements, le Parlement européen a adopté une position négociée concernant l’AI Act. Ce vote est synonyme du lancement de la phase de dialogues entre les pays de l’Union européenne au sein du Conseil de l’Europe. Un premier trilogue a eu lieu en juin, et un second sera entamé au mois de juillet en vue de la signature d’un accord final à la fin de l’année.
Un texte qui a évolué… à cause de ChatGPT
Outre plusieurs interdictions relatives à la reconnaissance biométrique et faciale, le texte adopté en juin 2023 inclut, entre autres, des amendements sur le contrôle des modèles de fondation et de l’IA générative.
« Le texte s’est finalement un peu modelé en fonction de l’actualité. Les législateurs ont souhaité capturer de nouveaux enjeux », commente Félicien Vallet, chef de service intelligence artificielle à la CNIL, lors d’une table ronde de l’AI France Summit 2023.
En 2022, certains députés européens, dont la rapporteuse Eva Maydell, membre du parti chrétien-démocrate PPE, avait indiqué leur volonté d’engager la responsabilité des éditeurs sans freiner l’innovation. Dont acte. Le texte adopté à Strasbourg contient six amendements visant à préciser la définition et la réglementation de la « chaîne de valeur de l’IA ». Cette chaîne de valeur couvre les méthodes, les outils, les étapes de l’élaboration d’un modèle jusqu’à son intégration dans un système d’IA.
L’AI Act tend à réguler « la chaîne de valeur de l’IA »
« Dans la chaîne de valeur de l’IA, de multiples entités fournissent souvent des outils et des services également des composants ou des processus qui sont intégrés par le fournisseur dans le système d’IA », peut-on lire en préambule de l’amendement 94 du récital 60 de l’AI Act. « Notamment en ce qui concerne la collecte et le prétraitement des données, l’entraînement du modèle, le recyclage du modèle, le test et l’évaluation du modèle, l’intégration dans le logiciel ou d’autres aspects de l’élaboration du modèle ».
Si l’amendement 34 vise à écarter en grande partie la responsabilité des développeurs de composants d’IA libre et ouvert dans cette chaîne de valeur (ils sont tout de même fortement encouragés à documenter leurs travaux), l’amendement 94, lui, intime que « toutes les tierces parties pertinentes » (éditeurs de logiciels, de composants, de modèles préentraînés, de jeux de données, ou fournisseurs réseau) doivent, « sans compromettre leurs propres propriétés intellectuelles ou secrets commerciaux », coopérer entre eux et avec les autorités. Il s’agit de permettre au fournisseur du service final de permettre le contrôle de la conformité de l’IA. « Le niveau de contrôle doit être explicitement divulgué par chaque tierce partie qui fournit au fournisseur un outil, un service, un composant ou un processus qui est ensuite incorporé par le fournisseur dans le système d’IA ».
L’ensemble de ces points sont repris dans l’article 28 qui définit la responsabilité de tous les acteurs membres de la chaîne dans le déploiement d’un système à haut risque.
(Presque) tous les acteurs de la chaîne partagent la responsabilité du système
Or certains modèles, généralistes, peuvent être utilisés dans des usages à haut risque. « En ce moment, nous accompagnons les fournisseurs de systèmes d’IA qui agissent comme des surcouches de vidéoprotection en vue de surveiller différents événements dans le cadre des Jeux olympiques », illustre Félicien Vallet. Ces systèmes détectent des événements comme des concentrations de foules, la présence d’un bagage isolé, etc.
« Les fournisseurs utilisent des modèles accessibles publiquement pour développer des systèmes qui se retrouvent ensuite au cœur d’une utilisation à haut risque ». En effet, il existe un grand nombre de modèles de computer vision disponibles en open source qui permettent de développer ce type d’application. Selon le principe de l’amendement 34, la responsabilité du comportement du modèle incombe aux fournisseurs, alors que la plupart d’entre eux ont été entraînés sur de vastes jeux de données publics, sans savoir s’ils respectent le présent règlement ou d’autres exigences législatives.
« Il faut tout de même que le fournisseur puisse s’appuyer sur une chaîne de responsabilités. Pour moi, il y a une question d’équilibre : que peut-on raisonnablement demander aux acteurs ? », s’interroge Félicien Vallet. En première lecture, L’AI Act semble faire un distinguo entre amont et aval de l’open source. Les projets « upstreams », de recherche semblent exempts de véritables obligations, contrairement aux projets downstreams, issus ou en vue d’une exploitation commerciale.
Un risque pour la propriété intellectuelle des éditeurs, selon Thibault de Tersant
Ces propositions inquiètent sérieusement les membres de Numeum. « Le texte est entré en phase de trilogue. Il est difficile d’avoir une influence réelle lors de cette phase-là, mais enfin l’on va essayer », affirme Thibault de Tersant, directeur général adjoint/secrétaire général de Dassault Systèmes et vice-président de Numeum.
Thibault de Tersantdirecteur général adjoint/secrétaire général de Dassault Systèmes et vice-président de Numeum
Le dirigeant craint plus particulièrement pour la protection de l’IP des éditeurs. « En l’état, les exigences en matière de documentation mentionnées dans l’AI Act vont très loin. Elles vont suffisamment loin pour que l’éditeur de logiciels ait à dévoiler une bonne portion de ses propriétés intellectuelles », note le responsable.
En principe, ce dévoilement s’applique à tous les acteurs de la chaîne, dont les acteurs étrangers. Toutefois, l’alinéa 2 b de l’article 28 de l’AI Act prévoit actuellement des mesures pour s’assurer du respect du secret des affaires et de la propriété intellectuelle. Cela ne serait pas suffisant, selon les dires de Thibault de Tersant.
« Je suis conscient qu’il faut que les autorités puissent vérifier si le logiciel fonctionne correctement. Je suis moins d’accord sur le fait qu’ils aient besoin d’une documentation ouverte sur ces logiciels », ajoute-t-il.
IA génériques vs IA spécialisées
Par ailleurs, le dirigeant comprend que, dans le cadre de l’AI Act, le fournisseur d’un algorithme devra identifier « l’usage le plus déviant possible ». « C’est difficile de se mettre à la place d’un client : l’on ne sait jamais vraiment ce qu’il peut faire avec un algorithme », clame-t-il.
Dans le texte, la définition des risques des usages de l’IA est effectuée par domaine, pas par technologie. « Cela demande de brasser énormément de technologies ». En clair, un système d’IA est souvent lui-même constitué de sous-systèmes, eux-mêmes résultant d’un assemblage de plusieurs algorithmes, de modèles statistiques, de moteur de règles, etc. Un processus complexe, suggère le dirigeant.
Si Thibault de Tersant identifie un potentiel « conflit entre l’AI Act et le Data Act » dans l’obtention et le traitement des jeux de données, il pointe surtout la visée trop généraliste de l’AI Act.
« La véritable question est : “qu’est-ce que l’IA ?”. Croyez-moi, il n’est pas si facile d’y répondre d’une manière permanente. En conséquence, ce texte devrait être évolutif. Or, je pense que l’ambition des instances européennes est de produire un texte parfaitement générique. C’est là que nous rencontrons une véritable difficulté », insiste-t-il.
Guillaume AvrinCoordonnateur national pour l’intelligence artificielle à la DGE
« L’IA c’est aussi un terme marketing. C’est la raison pour laquelle il a été retenu dans le titre du règlement », répond Guillaume Avrin, coordonnateur national pour l’intelligence artificielle à la DGE. « C’est surtout une question de fonctionnalités automatisées. En l’occurrence, la question peut se poser de savoir s’il y a des exigences transverses aux différents domaines d’application de ces algorithmes qui ont vocation à automatiser des fonctionnalités ou non ».
Guillaume Avrin prend l’exemple de la séparation nécessaire des jeux de données d’apprentissage de ceux consacrés aux tests d’un modèle. « Lorsqu’on développe des technologies d’intelligence artificielle, cela paraît être une exigence valable pour tous les modèles de machine learning, quel que soit le domaine d’application. Il existe un ensemble non vide d’exigences qui s’applique à tous les domaines d’application. Et je pense que ce sont ces exigences qui ont vocation à être présentes dans un texte transverse », argumente-t-il.
Des certifications encore trop chères
Dans le texte amendé, la Commission et le Parlement européen rappellent que des lois nationales et internationales régissent déjà la mise en place des systèmes d’IA dans des domaines spécifiques. Guillaume Avrin anticipe tout de même le fait qu’il faille renforcer le dispositif normatif pour labéliser ces applications spécifiques au regard des divers cadres législatifs.
Pour autant, le respect de ces exigences sur des fonctionnalités transverses coûte cher, déplore Thibault de Tersant. Outre l’accès à la puissance de calcul, le prix à payer pour l’entraînement, l’accès aux experts, le vice-président de Numeum déplore les montants nécessaires à la certification. « D’après la Commission européenne elle-même, pour une IA potentiellement à haut risque le coût minimum de labellisation pour chaque logiciel est de 300 000 euros. Tous les éditeurs de solutions d’IA ne sont pas de grandes entreprises, elles n’ont pas toutes les reins solides », souligne-t-il.
Dans son nouveau rôle, l’ancien responsable du département évaluation de l’IA au Laboratoire national de métrologie et d’essais (LNE) se range à l’avis de Thibault de Tersant. « Attention à ne pas tout mélanger, à ne pas rendre le procédé extrêmement compliqué pour les développeurs de technologies », prévient Guilllaume Avrin.
Dans le cadre de l’AI Act « les exigences sont de haut niveau en matière d’organisations des entreprises », poursuit-il. Selon l’expert, la norme choisie pour obtenir « la présomption de conformité » dans ce texte a été effectuée « à l’ISO/IEC JTC 1/SC 42 ». Sous cette appellation cryptique se cachent les normes dans le domaine de l’intelligence artificielle définies par les comités ISO et IEC. Plus particulièrement, les législateurs européens proposent de s’appuyer sur la norme ISO/IEC FDIS 42001 qui régit les systèmes de management d’intelligence artificielle. « Autant les grands groupes et les Big Tech ont les moyens, ont parfois déjà mis en place ces systèmes de management, autant pour une startup, mettre en place un système de management, c’est extrêmement compliqué. Et ça coûte extrêmement cher », remarque-t-il.
Guillaume AvrinCoordonnateur national pour l'Intelligence Artificielle, DGE
En clair, le cadre normatif choisi pourrait jouer en défaveur des « intérêts de l’écosystème national et européen ».
« Il faut absolument que nos entreprises participent à l’établissement de ces normes qui ont vocation à être harmonisées pour ces évaluations de conformité à l’AI Act », plaide Guillaume Avrin. « C’est la seule manière de s’assurer qu’on atteindra l’objectif sans que cela coûte une fortune, ou en tout cas sans que ça soit lié à des process d’évaluation de conformité contradictoires avec les intérêts nationaux et européens ».
Numeum plaide en faveur d’un « juste équilibre entre réglementation et innovation »
Même si les membres de Numeum accueillent favorablement une réglementation de la gestion des risques de l’IA, ils plaident pour « un juste équilibre entre réglementation et innovation ». Concernant l’IA générative, l’association considère qu’il n’y a pas besoin de renforcer le cadre légal en France. C’est pourtant l’objet de l’AI Act qui, sur le papier, vise à poser de sérieux garde-fous dans le cadre de leur développement et leur déploiement.
De son côté, Thibault de Tersant s’en remet à l’écosystème gouvernemental français pour influer sur la modification de l’AI Act.
« La France porte ses positions au niveau européen », rappelle Guillaume Avrin. « Des positions qui sont concertées, qui font consensus et qui font l’objet de discussions avec l’ensemble de l’écosystème. Nous participons et nous continuerons à participer aux conversations dans le cadre du trilogue pour converger vers la meilleure version du texte possible », assure-t-il.
L’État ne mise pas sur le protectionnisme
« Notre objectif, c’est de diffuser l’IA dans l’économie. Cela va dire être capable d’innover, d’avoir les systèmes les plus performants possibles et plus attractif pour l’utilisateur final et plus compétitif par rapport à la concurrence internationale. Et, en même temps, ce cadre [l’AI Act] doit favoriser le déploiement de ces technologies ».
En clair, l’État ne souhaite pas restreindre l’accès aux technologies commerciales étrangères pour répondre à ses propres besoins ou à ceux des entreprises. « Nous avons besoin, pour des enjeux compétitivité, d’intégrer des technologies d’intelligence artificielle dans nos entreprises et dans notre système de santé, en plus de maîtriser les gains de productivité associés », avance le coordonnateur national. « Nous allons intégrer des solutions d’IA qui viennent de l’extérieur de l’Europe et donc nous ne voulons pas nous mettre de trop fortes contraintes. Il y a des discussions en cours au niveau extraeuropéen pour converger vers ces exigences ».