lazyllama - stock.adobe.com

Lois sur l’IA : le Sénat américain mise sur l’innovation plutôt que sur les sanctions

Alors que l’Union européenne se prépare à appliquer l’AI Act et que la Californie entend réguler les modèles d’IA, le Sénat américain aura également plusieurs projets de loi à étudier. Pour autant, ceux-là sont davantage portés sur la promotion de l’innovation.

Vu des États-Unis. Contrairement à l’Union européenne, les décideurs politiques américains n’ont pas encore adopté de législation complète sur l’IA au Congrès ayant obtenu l’approbation du Sénat et de la chambre des Représenants. Toutefois, ils auront bientôt plus de possibilités grâce à plusieurs projets de loi sur l’IA qui ont été déposés au Sénat américain.

Fin juillet 2024, la commission du commerce, des sciences et des transports du Sénat américain a avancé huit projets de loi relatifs à l’IA qui visent à accroître la transparence et la sécurité des systèmes d’IA, ainsi qu’à cibler les deepfakes d’IA ou les fausses images, les sons et les vidéos générés par l’IA. Depuis que l’IA générative a explosé sur la scène avec le lancement du ChatGPT d’OpenAI à la fin de l’année 2022, la réglementation de l’IA est devenue un sujet important tant au Congrès que dans différents États américains.

La semaine dernière, les législateurs californiens ont fait avancer le SB 1047, un projet de loi important qui mettrait en œuvre des exigences en matière de tests de sécurité pour les modèles d’IA si le gouverneur de Californie Gavin Newsom signait le projet de loi. Certains y voient un « Brussel Effect ». Pour rappel, la Californie a été l’un des premiers États américains à adopter une loi proche du RGPD en matière de protection des données personnelles.

Un Sénat américain conciliant avec le marché de la Tech

Quant aux projets de loi soumis au Sénat américain (à portée fédérale donc), ils portent sur l’innovation, la recherche et la sécurité. En clair, la commission du commerce entend favoriser la croissance de l’écosystème IA, à l’instar de la France, de l’Allemagne et de l’Italie en Europe.

Un seul projet soumis au Sénat américain – la loi sur la recherche, l’innovation et la responsabilité en matière d’IA – prévoit des sanctions pour les entreprises qui ne s’y conforment pas. Le texte, pour l’instant à un état préliminaire, évoque une pénalité ne dépassant pas les 300 000 dollars ou « un montant qui est le double de la valeur de la transaction à la base de la violation à l’égard de laquelle la pénalité est imposée ». C’est bien loin des 7,5 à 35 millions d’euros d’amendes pouvant être exigées dans le cadre de l’application de l’AI Act.

En matière de compétitivité pourtant, les agences fédérales ont été l’instrument pour tenter de réguler les monopoles technologiques. Le département de la Justice des États-Unis a attaqué Apple pour abus de position dominante. La FTC poursuit Meta depuis quatre ans pour pratiques anticoncurrentielles. Ces deux firmes se défendent férocement et sont également ciblées par les institutions européennes.

En revanche, en matière d’innovation et de sécurité, l’Administration Biden a davantage encouragé les entreprises et les fournisseurs technologiques à respecter des lignes de bonne conduite sans enjoindre de grandes obligations, comme peut le faire l’AI Act européen.

IA : Huit projets de loi soumis au Sénat américain

Voilà les projets que les sénateurs américains prévoient d’examiner dans les prochains mois.

  • AI Research, Innovation and Accountability Act (loi sur la recherche, l’innovation et la responsabilité en matière d’IA)

Ce projet de loi vise à mettre en place un cadre pour l’innovation et la responsabilité en matière d’IA, y compris l’élaboration de normes de provenance et d’authenticité des données, pour le contenu en ligne généré par des auteurs humains et des systèmes d’IA. Il prévoit aussi des exigences de divulgation et de transparence pour les entreprises qui utilisent l’IA afin de prendre des décisions en matière de logement, d’emploi, d’assurance ou de crédit qui ont un impact significatif sur les individus. Le projet de loi comprend des dispositions d’application, de sorte que si les entités couvertes ne se conforment pas aux exigences du projet de loi, elles pourraient se voir infliger des sanctions financières.

  • Validation and Evaluation for Trustworthy AI Act (validation et évaluation pour une intelligence artificielle digne de confiance)

Le Sénat propose que le directeur du NIST orchestre la création de lignes directrices que les entreprises adopteraient volontairement pour tester et évaluer des systèmes d’IA en fonction de critères d’assurance internes et externes ainsi que des cas d’usage spécifiques.

  • Future of AI Innovation Act (loi sur l’innovation dans le domaine de l’IA)

Ce projet de loi utiliserait l’Institut américain de sécurité de l’IA (U.S AI Institute), hébergé au sein du NIST et créé à la suite du décret du président Joe Biden sur l’IA, publié en 2023, pour aider les agences fédérales à travailler avec le secteur privé afin d’établir des normes volontaires en matière d’IA et des outils d’évaluation des modèles pour soutenir la recherche et le développement dans le domaine de l’IA.

  • National Science Foundation AI Education Act

Ici, certains sénateurs imaginent que la Fondation Nationale pour la Science (NSF) puisse accorder des bourses dans le but de stimuler l’éducation et la formation en matière d’IA.

  • Creating Resources for Every American to Experiment with AI Act (loi sur la création de ressources pour que chaque Américain puisse expérimenter l’IA)

Ce projet de loi vise à établir officiellement le National Artificial Intelligence Research Resource (NAIRR), qui est actuellement un projet pilote mené par la NSF pour créer une infrastructure de recherche nationale pour une innovation responsable en matière d’IA. Il élargirait l’accès aux données et aux ressources informatiques pour l’entraînement des modèles d’IA, ce à quoi, selon le projet de loi, les grandes entreprises technologiques n’ont généralement accès qu’à titre exceptionnel.

  • Testing and Evaluation Systems for Trusted AI Act (loi sur les systèmes de tests et d’évaluations pour une IA fiable)

Ce projet de loi vise à améliorer la mise en place par le NIST de bancs d’essai utilisés pour développer et évaluer des systèmes d’IA fiables, et à améliorer la coordination interinstitutionnelle dans le développement de ces bancs d’essai.

  • Small Business Training Act (loi sur la formation des petites entreprises à l’IA)

Ce projet de loi demande à la secrétaire américaine au commerce, Gina Raimondo, de mettre au point des outils et des ressources de formation à l’IA pour les petites entreprises.

  • Artificial Intelligence Public Awareness and Education Campaign Act (loi sur la campagne de sensibilisation et d’éducation à l’intelligence artificielle)

Ce projet de loi charge Gina Raimondo et le ministère américain du Commerce de mener une vaste campagne pour sensibiliser le public aux avantages, aux risques et à la prévalence des systèmes d’IA dans la vie quotidienne des citoyens américains.

Un équilibre à trouver entre innovation et régulation

Une autorégulation par le marché auquel ne croit pas Enza Iannopollo, analyste chez Forrester Research.

« Les orientations et les cadres volontaires peuvent être utiles pour soutenir les efforts des entreprises dans le développement d’une IA plus sûre, responsable et digne de confiance », déclare-t-elle « Mais sans exigences contraignantes, il est peu probable que nous puissions observer un impact réel ».

Précisons qu’Enza Iannopollo est basée à Londres, est italienne et a mené ses études à Rome et Londres. En clair, l’analyste apporte là une vision européenne de la question. Ajoutons qu’en attendant la pleine application de l’AI Act, la Commission européenne a, elle aussi, prévu un cadre d’autorégulation basé sur le volontariat des entreprises.

Hodan Omaar, responsable politique au Center for Data Innovation de l’ITIF (Information Technology & Innovation Foundation), salue, de son côté, l’accent mis par les projets de loi du Sénat américain sur la promotion de la recherche et de l’innovation.

« Je suis très enthousiasmée par certains des projets de loi », déclare-t-elle. « Je pense que nous avons vraiment besoin de plus de ressources ». Pour rappel, l’ITIF est une association soutenue financièrement par les GAFAM, Adobe, Nvidia, Autodesk ou encore Uber. Elle relaie régulièrement les opinions partagées par les dirigeants de la Silicon Valley.

Dernièrement, Hodan Omaar a écrit plusieurs articles sur la stratégie nationale de la Chine en matière d’IA arguant que les États-Unis feraient bien de s’en inspirer pour ne pas perdre sa place de leader.

« Les décideurs américains ne devraient pas donner la priorité à l’endiguement de la Chine, mais plutôt élaborer et financer une stratégie nationale globale en matière d’IA qui réponde au double objectif d’un développement et d’une adoption accrus de l’IA afin de rester dans la course », écrit Hodan Omaar.

Même si le Sénat poursuivra ses efforts, le résultat de l’élection présentielle de novembre 2024 influera sur la politique des États-Unis en matière de régulation et d’innovation de l’IA. 

Le colistier James David Vance n’entend pas changer d’un iota la ligne du blocus anti-chinois incarnée par Donald Trump lors de son précédent mandat et se présente comme un anti-Silicon Valley. La candidate Kamala Harris, selon les observateurs, serait plus à l’écoute des acteurs de la Silicon Valley que le Président Joe Biden, mais maintiendrait sûrement une politique similaire, à la fois rigoureuse en matière d’adoption de l’IA et favorable à la compétitivité de la tech américaine à l’international. Elle a d’ailleurs déjà déclaré que ces deux approches n’étaient pas antinomiques.

Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire

Close