Shodan

2023 : année des premières régulations sur l’intelligence artificielle

Les grandes instances avancent avec des philosophies différentes pour réglementer l’IA. Sans contraintes, pour le G7. Par décret, aux États-Unis. Avec un ACT, en Europe. Chacun trouve par ailleurs son propre équilibre, entre protection contre les risques et développement économique. En 2023, la France a milité pour un assouplissement européen en faveur des modèles de fondation. En vain… Pour le moment. À suivre en 2024 donc.

Après 37 heures de débat, les autorités européennes sont parvenues en décembre 2023 à un accord sur la régulation de l’intelligence artificielle. Provisoire, mais déjà jugé historique par ses défenseurs, le texte de l’AI Act fait aussi des mécontents, notamment dans les rangs français.

Proche d’aboutir, le projet d’origine a en effet été profondément remanié suite au lancement de ChatGPT et à la dynamique enclenchée dans le domaine de l’IA générative. La nouvelle mouture a suscité, à l’été, des contestations parmi de grandes entreprises et au sein du patronat.

En juillet, les dirigeants de 150 entreprises européennes – dont Airbus, Blablacar, Capgemini, Renault ou Ubisoft – signaient une lettre ouverte à l’attention des institutions européennes. Ils s’alarmaient de l’impact de la future réglementation sur l’intelligence artificielle.

La France dans les opposants à « la bureaucratie inutile »

Le message a été reçu par le président Emmanuel Macron et son gouvernement. La France ralliait l’Italie et l’Allemagne à sa cause pour peser sur les discussions et obtenir une inflexion.

« Je suis d’accord avec mes collègues italiens et français pour dire que nous avons besoin d’une réglementation favorable à l’innovation dans l’IA. »
Robert HabeckVice-chancelier et ministre allemand de l’Économie

Sa ligne pouvait être résumée ainsi : « plus d’économie et moins de régulation », en particulier sur les modèles dits de fondation. Le 30 octobre 2023, le ministre des Finances, Bruno Le Maire, se déplaçait à Rome pour rencontrer ses homologues et officialiser le renforcement de leur coopération sur l’IA.

« Je suis entièrement d’accord avec mes collègues italiens et français pour dire que nous avons besoin d’une réglementation favorable à l’innovation dans le domaine de l’IA », commentait dans la foulée le vice-chancelier et ministre allemand de l’Économie, Robert Habeck.

Pour Bruno Le Maire, il s’agissait pour l’AI Act d’ouvrir « la voie à l’émergence d’une industrie européenne de l’IA compétitive au niveau mondial ». Or, selon les trois États, cet objectif était remis en cause et nécessitait une réduction des « charges administratives » pour que « les start-up européennes puissent participer à d’éventuels projets dédiés à la transition numérique et écologique. »

En résumé, le trio invitait à s’affranchir de toute « bureaucratie inutile ».

L’accord du 8 décembre : une étape, pas une conclusion

L’accord « historique » conclu le 8 décembre 2023 n’est cependant pas une victoire pour cette ligne.

Certes, le Parlement européen a fait quelques concessions. Mais le texte conserve tous ses grands principes.

« On peut décider de réguler plus vite et plus fort que nos compétiteurs, mais on régulera des choses qu’on ne produira plus ou qu’on n’inventera pas. »
Emmanuel MacronPrésident de la République

La France n’a d’ailleurs pas tardé à exprimer ses griefs et à suggérer que des évolutions restaient possibles. « C’est une étape. Les discussions vont se poursuivre », déclarait par exemple sur France Inter, dès le 9 décembre, le secrétaire d’État au numérique Jean-Noël Barrot.

Le 11 décembre, c’est le président de la République qui revenait à la charge lors d’un discours à Toulouse pour les deux ans du plan France 2030. « Nous sommes le premier endroit au monde où sur les modèles dits “fondationnels” d’IA, on va beaucoup plus réguler que les autres. Moi, je pense que ce n’est pas une bonne idée, je le dis en toute honnêteté », regrettait Emmanuel Macron.

Le chef de l’État brandit le risque d’une perte de compétitivité pour justifier ses critiques et appeler à un réexamen de l’AI Act. « On peut décider de réguler beaucoup plus vite et beaucoup plus fort que nos grands compétiteurs, mais on régulera des choses qu’on ne produira plus ou qu’on n’inventera pas », prévient-il. « Et ce n’est jamais une bonne idée. »

Emmanuel Macron plaide donc pour une évaluation régulière de la réglementation. Et il fixe une ligne rouge : « si nous perdons des leaders ou des pionniers à cause de ça, il faudra revenir [sur cette régulation]. C’est clé. » La menace, selon lui, est la délocalisation de start-up prometteuses, comme Mistral AI.

La France, championne européenne de l’IA

Sur X, le CEO et cofondateur de Mistral AI Arthur Mensch avait sans ambiguïté contesté le projet de loi – avant le vote du trilogue – qui, selon lui, avait perdu les équilibres défendus dans sa première mouture en faisant peser de lourdes obligations sur les modèles fondation, « le moteur derrière certaines applications d’IA. »

« Nous ne réglementons pas le langage C parce qu’il peut être utilisé pour développer des logiciels malveillants. »
Arthur MenschMistral AI

« Nous ne pouvons pas réglementer un moteur dépourvu d’usages. Nous ne réglementons pas le langage C parce qu’il peut être utilisé pour développer des logiciels malveillants. Au contraire, nous interdisons les logiciels malveillants et renforçons les systèmes de réseau (nous réglementons l’utilisation) », arguait-il.

Cette lecture, Arthur Mensch la portait directement – comme Cédric O, actionnaire de Mistral AI – à l’oreille du gouvernement, en tant qu’un des 15 membres du comité IA générative mis en place par la Première ministre pour le conseiller dans sa stratégie nationale sur l’IA.

Le président Macron se range de fait derrière cette ligne. « C’est une révolution en cours. Mais au fond, sur ce sujet, [nous avons] à la fois Mistral qui a levé des financements record dans le secteur […] Et on a eu une réglementation européenne », qualifiée donc de mauvaise idée.

« La France est sans doute le premier pays en termes d’intelligence artificielle en Europe continentale, nous sommes au coude à coude avec les Britanniques. Mais eux n’auront pas cette régulation sur les modèles “fondationnels” et surtout, nous sommes tous très loin des Chinois et des Américains », concluait-il.

Des grands principes, mais sans contraintes parmi le G7

Au niveau mondial et chez nos partenaires économiques, le chantier de la régulation de l’IA avance également, mais principalement autour de grands principes. C’est le cas par exemple entre les pays du G7. Fin octobre un accord était conclu entre ses dirigeants.

Cet accord porte sur des principes directeurs internationaux et sur un code de conduite volontaire destiné aux développeurs d’IA. Il se distingue donc clairement des règles juridiquement contraignantes de l’UE.

Les dirigeants du G7 se sont entendus sur onze principes directeurs, qui ne constituent que « des orientations » pour les concepteurs et les utilisateurs « des systèmes d’IA avancés » (dont font partie les modèles de fondation et l’IA générative.

Parmi ces principes figurent « des engagements visant à atténuer les risques et les utilisations abusives et à recenser les vulnérabilités. » Ils encouragent en outre « le partage responsable d’informations, le signalement d’incidents et les investissements dans la cybersécurité. »

Enfin, les principes prévoient la mise en place d’un système d’étiquetage ou de labellisation pour identifier les contenus générés par l’IA. Ces 11 points sont à la base de l’élaboration d’un code de conduite « qui fournira des orientations pratiques et détaillées aux organisations qui développent l’IA. »

Le 30 octobre, la présidente de la Commission européenne Ursula von der Leyen se félicitait de cet accord du G7 dont « les principes directeurs internationaux et le code de conduite volontaire reflètent les valeurs de l’UE [pour] une IA digne de confiance. J’appelle tous les développeurs d’IA à signer et à mettre en œuvre dès que possible ce code de conduite ».

Au même moment, le président américain Joe Biden faisait passer un décret.

Le décret américain sur l’IA

Ce décret constitue la première action des États-Unis – terre des plus grands concepteurs de systèmes d’intelligence artificielle – en matière d’encadrement de l’IA.

« Pour réaliser les promesses de l’IA et en éviter les risques, nous devons gouverner cette technologie. Il n’y a pas d’autre solution : elle doit être encadrée », lançait Joe Biden depuis la Maison-Blanche, en présence d’élus et de représentants d’entreprises du secteur.

La réglementation américaine prévoit plusieurs dispositions, dont la réalisation et le partage des résultats par les concepteurs de leurs tests de sûreté pour les systèmes d’IA les plus avancés. Ces tests se baseront sur des critères communs afin de démontrer qu’ils sont « sûrs, sécurisés, et dignes de confiance. »

Les résultats seront transmis et analysés par une nouvelle agence fédérale : le Bureau pour la Sûreté et de la Sécurité de l’IA.

Sur le front des menaces, « chimiques, biologiques, radiologiques, nucléaires et pour la cybersécurité », les ministères américains devront identifier les risques et définir des mesures préventives.

Les États-Unis travaillent également à l’élaboration d’une charte d’utilisation « sûre, éthique et efficace » de l’IA dans le domaine militaire. Il s’agira aussi, sur le plan de la défense, d’anticiper les menaces pour être capable de « contrer les usages militaires de l’IA. »

En matière de protection des données personnelles et des citoyens, le décret américain prévoit la conception d’outils de détection des contenus générés par l’IA. Ils visent à lutter contre la fraude et les escroqueries sur Internet et à contrôler le respect du label obligatoire sur les contenus générés par l’IA.

Pour renforcer la protection de la vie privée, Joe Biden doit en revanche en appeler au Congrès. Une loi votée par les élus est indispensable pour protéger les Américains de l’exploitation de leurs données personnelles, le décret n’encadrant que l’action du gouvernement fédéral.

En ce qui concerne l’impact de l’IA sur l’emploi, la Maison-Blanche se dit consciente des « dangers de la surveillance sur les lieux de travail […] et des suppressions d’emplois. » Le décret prévoit donc la création d’une charte de bonnes pratiques au travail.

D’autres actions politiques sont renvoyées à la finalisation d’un rapport sur l’impact de l’IA sur le marché du travail américain. Ce document permettra « de définir un accompagnement et des aides pour les travailleurs touchés » par le déploiement des systèmes d’IA.

Contrairement à l’UE, les modèles de fondation passent entre les mailles du filet, et échappent à des mesures contraignantes.

Europe, États unis, G7. Autant de projets qui seront au cœur de 2024 pour l’IA.

Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire