Gajus - stock.adobe.com

Le pacte européen sur l’IA signé par plus de 126 entreprises

Microsoft, OpenAI, SAP ou encore Salesforce font partie des premiers signataires de cet « engagement volontaire » à respecter certaines dispositions de l’AI Act avant l’heure. En revanche, certains absents, dont Meta, Apple, Mistral AI ou Anthropic se sont particulièrement fait remarquer.

En attendant la pleine application de l’AI Act entré en vigueur 1er août 2024, la Commission européenne a mis en place un cadre d’implémentation volontaire dans les entreprises.

Son nom ? Le pacte sur l’IA. Selon un porte-parole de la Commission, près d’un millier d’entreprises et d’organisations européennes et extraeuropéennes se sont montrées intéressées par ce projet.

Comme promis, le 25 septembre, l’autorité européenne a dévoilé la signature du document par 126 entreprises.

Parmi elles, l’on trouve un grand nombre d’éditeurs, de fournisseurs IT, de telcos et d’ESN, dont Microsoft, Lefebvre Sarrut, Google, Cisco, Atlassian, Cegid, Alteryx, Autodesk, IBM, Idemia, Infosys, Orange, Palantir, Sage, HPE, Salesforce, Samsung, SAP, Wipro, Dassault Systèmes ou encore Sopra Steria.

 La Commission mentionne également des grands groupes et des PME dans des secteurs tels la santé (Daedalus Santé), la finance (Mastercard), l’automobile (Porsche) et l’aéronautique (Airbus).

Qu’est-ce que le pacte européen sur l’IA ?

Le pacte sur l’IA s’appuie sur deux piliers.

Le premier consiste à créer un réseau d’échanges entre « les organisations qui ont manifesté leur intérêt pour le pacte ». Il s’agit d’organiser des réunions de travail et de créer un espace de partage en ligne pour favoriser la transmission des bonnes pratiques en matière de respect préventif de l’IA Act. Le Bureau de l’IA, l’organe de la Commission européenne responsable de l’implémentation du texte y jouera le rôle de formateur : il entend permettre aux participants « de mieux comprendre la législation sur l’IA et leurs responsabilités » afin de favoriser leur préparation.

Le Bureau recueillera également des informations sur ce qu’il considère comme des bonnes pratiques afin de les partager plus largement en dehors du cadre du pacte, notamment à travers la plateforme en ligne.

Le deuxième pilier vise le bon suivi des engagements volontaires pris par les organisations à la signature du Pacte.

« Ces engagements contiennent des actions concrètes (prévues ou en cours) pour répondre aux exigences distinctes de la législation sur l’IA et comprennent un calendrier pour leur adoption », précise la Commission européenne. « Ces déclarations d’engagement peuvent également prendre la forme d’objectifs progressifs ».

Il s’agit en premier lieu d’établir une stratégie de gouvernance de l’IA, de dresser un inventaire des systèmes à haut risque et de sensibiliser le personnel.

Les signataires sont invités à partager les « processus et pratiques » qu’ils ont mis en œuvre pour respecter certaines dispositions de l’AI Act. 

« Outre ces engagements fondamentaux, plus de la moitié des signataires ont pris des engagements supplémentaires, notamment en ce qui concerne le contrôle humain, l’atténuation des risques et l’étiquetage transparent de certains types de contenus générés par IA, tels que les trucages vidéo ultra-réalistes », indique la Commission européenne.

Le Bureau et la Commission auront pour mission d’orchestrer la communication des mesures prises. Les signataires s’engagent à le faire douze mois après la publication de leurs engagements.

Le projet lancé par l’ancien commissaire au marché intérieur Thierry Breton n’a rien de contraignant. La Commission européenne aimerait que le pacte comble « un vide juridique ». Dans les faits, c’est un dispositif d’accompagnement et de communication pour des entreprises qui souhaitent faire bonne figure avant la véritable application de l’AI Act. 

Parmi eux, l’on retrouve OpenAI, pourtant peu réputé pour sa transparence. « Le pacte européen sur l’IA, qui met fortement l’accent sur la gouvernance, l’adoption et la connaissance de l’IA, identifie les bonnes priorités pour garantir que les bénéfices de l’IA soient largement répartis », déclare Sandro Gianella, Head of Europe & Middle East Policy & Partnerships chez OpenAI, dans un communiqué de presse. « Nous sommes fiers de soutenir les priorités fondamentales du pacte, qui correspondent à notre mission : fournir des technologies sûres et de pointe qui profitent à tous ».

Aleph Alpha, startup allemande qui entraîne des LLM – pourtant sceptique à l’annonce du compromis politique trouvé en décembre au sujet de l’AI Act – a, elle aussi, signé le pacte.

Si l’exercice peut paraître vain ou ses mécanismes un peu vagues, il serait idiot pour les signataires de ne pas respecter leurs engagements, puisqu’ils seront attendus au tournant par les régulateurs. Par extension, le seul véritable engagement pris par les signataires, c’est envers leur image de marque… et l’écorner est parfois plus coûteux qu’une amende.

Pour Lefebvre Sarrut, éditeur de livres et logiciels dans les domaines juridiques et fiscaux, la signature du pacte est un gage de « confiance ». « […] Ce que nos clients – les praticiens du droit et de la fiscalité – attendent de nous, c’est une information digne de confiance, une technologie fiable et un soutien », écrit Olivier Campenon, président du directoire de Lefevre Sarrut.

Meta ne signera pas tout de suite, Apple et Anthropic brillent par leur absence

Néanmoins, il y a également des réfractaires, en premier lieu Meta.

Auprès de Reuters et d’Euractiv, un porte-parole de Meta a indiqué que le groupe préfère pour l’instant effectuer ce travail d’évaluation de son côté.

« Nous accueillons favorablement les règles harmonisées de l’UE et nous nous concentrons actuellement sur notre travail de mise en conformité avec la loi sur l’IA, mais nous n’excluons pas d’adhérer ultérieurement au pacte de l’IA ». Le représentant confirme indirectement que Meta n’a pas de véritable problème avec l’AI Act, contrairement au RGPD qui serait appliqué de manière hétérogène dans les différents pays membres de l’UE.

C’est l’objet de la lettre ouverte intitulée « L’Europe a besoin de certitude réglementaire en matière d’IA »… pourtant signée par certains adhérents au pacte de l’UE sur l’IA, dont SAP, Criteo et Mirakl.

Apple, qui a décidé de reporter le lancement d’Apple Intelligence sur iPad et iPhone (mais pas sur Mac), ne fait pas non plus partie des signataires du pacte. La firme de Cupertino a davantage un problème avec le DMA (Digital Market Acts) qu’avec la loi européenne sur l’IA.

D’autres absences de signature du Pacte sur l’IA sont remarquées. Celle de Mistral AI paraît logique. En novembre 2023, Arthur Mensch, cofondateur et CEO de la startup française, avait expliqué en détail pourquoi l’AI Act ne lui convenait pas.

Together AI, un fournisseur de services et d’hébergement de LLM n’a pas non plus approuvé le document.

« De manière générale, je pense que le problème est que le débat a transité d’une réglementation sectorielle ou par usage – qui est souhaitable dans un certain nombre de cas – à une réglementation de la technologie en elle-même, ce qui ne semble pas approprié et qui pourrait étouffer l’innovation », résume Vipul Ved Prakash, cofondateur et CEO de Together AI, lors un panel en marge de Dreamforce 2024.

L’absence dAnthropic parmi les premiers signataires paraît en revanche plus étrange. Il est l’un des fervents défenseurs de l’IA responsable et étudie la mitigation des risques de l’IA. De plus, le fournisseur des LLM Claude a, tout comme OpenAI, signé un engagement avec le NIST concernant l’évaluation de ses modèles et participe actuellement aux travaux de réglementation entamés par le gouvernement fédéral américain.

En ce qui concerne l’AI Act, certaines interdictions prendront effet dès le mois de février 2025 et les mesures concernant les applications à haut risque seront observées à partir du 2 août 2026.

« Les règles de gouvernance et les obligations relatives aux modèles d’IA à usage général deviendront applicables après 12 mois et les règles relatives aux systèmes d’IA intégrés dans des produits réglementés s’appliqueront après 36 mois », rappelle la Commission.

Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire

Close