Faute d’un cadre fédéral, le gouverneur californien rejette une loi sur l’IA

Le gouverneur de Californie, Gavin Newsom, s’est opposé à la réglementation générale de la loi SB 1047 sur les systèmes d’intelligence artificielle, qui n’aborde pas des questions spécifiques telles que le déploiement dans des environnements à haut risque.

La décision du gouverneur de Californie Gavin Newsom de mettre son veto au Senate Bill 1047, un projet de loi sur l’IA qui aurait mis en place des exigences de sécurité pour les grands systèmes d’IA, crée un vide dans la réglementation de l’IA qui pourrait pousser le Congrès américain à agir.

Le « SB 1047 » concernait les entreprises et les organisations entraînant des modèles avec une puissance de calcul supérieure à 10^26 FLOPS, d’un coût total de 100 millions de dollars d’entraînement ou de plus de 10 millions de dollars de fine-tuning. Celles-là auraient dû, selon le texte, introduire des processus de contrôle à l’entraînement et à l’inférence, afin d’empêcher toutes catastrophes (ou dommage de masse évalué à plus de 500 millions de dollars), dont les attentats menés à l’aide d’armes chimiques, nucléaires, radiologiques ou biologiques et les cyberattaques d’ampleur à partir des contenus générés par les modèles. Outre l’introduction d’un « kill switch » pour éteindre les systèmes d’IA, le SB 1047 rendait responsable le fournisseur du modèle « frontière » de la conformité au texte et leur demandait un audit réalisé par un tiers.

Si le projet de loi sur l’IA a reçu le soutien d’experts en IA tels que Geoffrey Hinton, ancien responsable de l’IA chez Google, et l’informaticien canadien Yoshua Bengio, il a également fait l’objet de critiques importantes concernant les problèmes qu’un tel projet de loi pourrait soulever pour les startups et l’innovation. Les représentants américains Zoe Lofgren et Nancy Pelosi (deux démocrates) ont applaudi la décision de Gavin Newsom de mettre son veto au projet de loi. Zoe Lofgren a déclaré dans un communiqué qu’elle pensait qu’il s’agissait d’une « question qui devrait être traitée au niveau fédéral » aux États-Unis et dans le monde, afin de faciliter la mise en conformité des entreprises qui développent et déploient des systèmes d’IA.

« Le Congrès et l’administration sont tous deux en train d’agir sur la gouvernance de l’IA », rappelle-t-elle.

Un appel au Congrès pour légiférer

Daniel Castro, vice-président de l’Information Technology and Innovation Foundation (ITIF), une association proche des éditeurs, avance dans un communiqué différent que les autres projets de loi californiens sur l’IA, que le gouverneur Newsom a signés au début du mois et qui ciblent spécifiquement les deepfakes et les ressemblances numériques, constituent une approche plus efficace par rapport à la réglementation générale de la technologie sous-jacente. Dans sa déclaration de veto au projet de loi californien sur l’IA, M. Newsom a indiqué qu’il avait signé 17 projets de loi au cours des 30 derniers jours pour réglementer l’IA générative.

De plus, Daniel Castro fait valoir que les États ne devraient pas fixer la barre en matière de réglementation de l’IA. Les législateurs ont avancé quelques projets de loi sur l’IA cette année, mais aucun n’a fait l’objet d’un vote à la Chambre des représentants ou au Sénat. Il est peu probable que le Congrès prenne des mesures avant la fin du mandat du président Joe Biden cette année, et les candidats à la présidence Kamala Harris et Donald Trump adopteraient probablement différentes approches en matière de réglementation de l’IA.

« L’une des menaces les plus importantes pour le leadership des États-Unis en matière d’IA est l’émergence potentielle d’un patchwork de lois étatiques contradictoires. »
Daniel CastroV-P, Information Technology and Innovation Foundation

« L’une des menaces les plus importantes pour le leadership des États-Unis en matière d’IA est l’émergence potentielle d’un patchwork de lois étatiques contradictoires », prévient Daniel Castro. « Un tel scénario empêtrerait les entreprises d’IA américaines dans des réglementations complexes et coûteuses, entravant l’innovation américaine alors que les concurrents mondiaux, en particulier la Chine, avancent sans encombre ».

Lors d’un point presse de Dreamforce 2024, les représentants des affaires légales de Salesforce ont évoqué l’existence de « 600 projets de loi dans 45 États » et ont, eux aussi, déploré « l’absence d’un cadre fédéral » pour encadrer les réglementations sur l’IA.

De son côté, Gavin Newsom avance que si le projet de loi californien sur l’IA partait d’une bonne intention, il ne tenait pas compte de facteurs spécifiques tels que le fait qu’un système d’IA soit déployé dans des environnements à haut risque, qu’il implique des prises de décision critiques ou qu’il utilise des données confidentielles.

« Le projet de loi applique des normes strictes même aux fonctions les plus basiques dès lors qu’un grand système les déploie », écrit-il dans un communiqué. « Je ne pense pas qu’il s’agisse de la meilleure approche pour protéger le public des menaces réelles posées par la technologie ».

Entre soulagement et frustration

Daniel Castro a salué la décision de M. Newsom concernant le SB 1047. Il estime que la Californie « a évité un coup potentiellement dévastateur pour son secteur technologique ».

« Les mesures de sécurité proposées par le projet de loi ne reposaient pas sur des bases factuelles et semblaient déconnectées des discussions sur la sécurité de l’IA qui évoluent rapidement dans l’industrie et le monde universitaire », assure Daniel Castro. « Se précipiter pour réglementer un domaine aussi complexe et dynamique aurait été une grave erreur ».

Bien que le projet de loi comporte des éléments forts, il nécessite des garanties supplémentaires pour les petites et moyennes entreprises d’IA, nuance Arun Subramaniyan, fondateur et PDG de l’entreprise d’IA générative Articul8 AI, dans un billet de blog.

« Ce veto ne favorisera pas l’innovation. Il ne fait que renforcer le statu quo où les grands monopoles technologiques sont autorisés à engranger des profits sans se soucier de notre sécurité. »
Nicole GillCofondatrice et directrice générale, Accountable Tech

Les exigences en matière de calcul du projet de loi californien sur l’IA s’appliquaient initialement aux grandes entreprises. Mais Arun Subramaniyan a déclaré qu’il craignait que, d’ici à ce qu’elle entre en vigueur en 2026, elle puisse également s’appliquer aux petites entreprises.

Certaines considèrent le veto de Gavin Newsom au projet de loi californien sur l’IA comme un revers. Nicole Gill, cofondatrice et directrice générale d’Accountable Tech, une organisation qui se consacre au contrôle des grandes entreprises technologiques, a qualifié le veto de « cadeau massif aux grandes entreprises technologiques ».

« Ce veto ne favorisera pas l’innovation », insiste-t-elle. « Il ne fait que renforcer le statu quo où les grands monopoles technologiques sont autorisés à engranger des profits sans se soucier de notre sécurité, alors même que leurs outils d’IA menacent déjà la démocratie, les droits civiques et l’environnement, avec un potentiel inconnu pour d’autres dommages catastrophiques »..

Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire