robsonphoto - stock.adobe.com

IA : Meta prêche l’harmonisation des règlementations européennes

Dans une lettre ouverte signée par des responsables et directeurs scientifiques de plus de 36 entreprises et organisations, Meta prône l’harmonisation de la réglementation affectant les données utilisées lors de l’entrainement de modèles d'IA en Union européenne. Un message qui porterait des arguments légitimes, mais pour une mauvaise cause, selon certains commentateurs.

Des employés et dirigeants de grands groupes comme Ericsson, SAP, Klarna, Criteo, Thyssenkrupp AG, Publicis, Pirelli, Adaptive ML, Prada ou encore Artefact sont quelques-uns de ces signataires de ce document publié le jeudi 19 septembre par Meta à travers une page Web dédiée.

La lettre est également signée de la main de Mark Zuckerberg, cofondateur principal et CEO de Meta, ainsi que par le directeur scientifique de Meta AI, Yann Le Cun.

« Nous sommes un groupe d’entreprises, de chercheurs et d’institutions qui font partie intégrante de l’Europe et qui travaillent au service de centaines de millions d’Européens. Nous voulons voir l’Europe réussir et prospérer, y compris dans le domaine de la recherche et de la technologie de pointe en matière d’IA », écrivent les auteurs de la lettre. « Mais la réalité est que l’Europe est devenue moins compétitive et moins innovante par rapport à d’autres régions et qu’elle risque maintenant de prendre encore plus de retard dans l’ère de l’IA en raison d’une prise de décision réglementaire incohérente ».

Une menace (à peine voilée) de déclassement technologique

À cause de ces incohérences réglementaires, l’Union européenne ne pourrait pas accéder aux modèles ouverts et multimodaux, selon les auteurs.

Ici, le sujet n’est pas réellement les préceptes de classifications des modèles par leur niveau de risques, mais de l’accès aux données pour les entraîner.

« Si les entreprises et institutions doivent investir des dizaines de milliards d’euros afin de mettre en place une IA générative pour les citoyens européens, il doit exister des règles claires, appliquées de façon cohérente et permettant l’utilisation des données européennes », martèlent les auteurs. « Or ces derniers temps, les réglementations sont devenues fragmentées et imprévisibles, et les interventions des autorités européennes chargées de la protection des données ont généré énormément d’incertitudes concernant le type de données pouvant être utilisées pour entraîner les modèles d’IA ».

 « Par conséquent, la prochaine génération de modèles d’IA en libre accès ainsi que les produits et services conçus à partir de ces derniers ne comprendront pas et ne refléteront pas les connaissances, la culture et les langues européennes ».

Au passage, dans la version anglaise de la lettre, Meta insiste sur le fait que l’UE sera privée de son assistant d’IA « en passe de devenir l’assistant d’IA le plus utilisé au monde d’ici à la fin de l’année ».

« Il est important de noter que des voix commencent à s'élever pour exprimer leurs inquiétudes face à cette situation », déclare Stéphane Roder, CEO d’AI Builders, dans un communiqué envoyé au MagIT. « Le fait qu'Apple se prive de développer pleinement son "Apple Intelligence" en Europe, et que d'autres entreprises soient contraintes de limiter leurs activités dans l'UE, est perçu comme un signe préoccupant. Ces restrictions pourraient conduire à une situation dans laquelle de nombreuses innovations en IA seront développées et déployées principalement aux États-Unis, laissant l'Europe à la traîne ».

Des motivations floues en première lecture

Le discours porté par Meta est néanmoins flou. À part une mise en pratique hétérogène du RGPD, la lettre ouverte ne pointe du doigt aucune prise de décision ou recommandations légales qui limiteraient l’accès aux données. Le document ne désigne pas explicitement la nature des données qui servirait à refléter la culture européenne dans les sorties des modèles. Est-il question de données personnelles ou de contenus culturels ? Si les auteurs semblent craindre à une application à plusieurs vitesses de l’AI Act, là non plus le texte n’est pas expressément mentionné.

Pour Jürgen Geuter, directeur de recherche de l’agence allemande de design ART+COM s’exprimant en son nom, la lettre ouverte est un « ramassis de conneries » (sic : « load of BS », BS étant un diminutif pour « bullshit ») et un « produit de la communication de Meta ».

« Il s’agit d’essayer d’amener l’UE à laisser les grandes entreprises récupérer les données de tout le monde et travailler pour leurs modèles. Et ils veulent que l’UE l’approuve », s’exclame-t-il sur LinkedIn.

« Cette lettre va explicitement à l’encontre des intérêts de l’UE, elle va à l’encontre des intérêts des citoyens de l’UE et de tous ceux qui vivent dans l’UE. Personne qui se soucie des nobles “valeurs européennes” ne devrait signer cela. Laissons Meta dépenser son propre argent en lobbying contre la réglementation de l’IA. Ne soyez pas leurs pions crédules », lance-t-il. Une publication étrangement aimée par… Yann Le Cun.

Un problème d’application du RGPD dénoncé par les entreprises et les associations

« Les réglementations de l’UE (telles que le RGPD et l’AI Act) ne sont ni fragmentées ni imprévisibles, car les entreprises ont le temps de s’y conformer et, en tant que réglementations de l’UE, elles sont directement applicables à tous les États membres », commente Luiza Jarovsky, cofondatrice d’Aitechprivacy.com, sur X (ex-Twitter). Un argument également utilisé par Jürgen Geuter.

« Ce qui les dérange (surtout Meta), c’est l’absence de position ferme de la part des autorités de protection des données de l’UE sur la manière d’appliquer le RGPD dans le contexte de l’entraînement des modèles d’IA », considère-t-elle.

Comme l’a fait récemment Ivana Bartoletti, Global Chief Privacy & AI Governance Officer chez Wipro, auprès du MagIT, Luiza Jarovsky reconnaît que le RGPD n’est pas appliqué de manière hétérogène. Si la Commission européenne a proposé une législation en 2023 afin d’harmoniser le traitement des dossiers transfrontaliers, il n’y a pas de mesures spécifiques concernant l’utilisation des données personnelles dans le cadre de l’entraînement de modèles d’IA.

Par exemple, certaines pratiques comme le scraping de données sur le Web ne sont pas traités de la même manière par les pays membres de l’UE.

« Oui, l’UE doit être plus décisive et plus claire sur la manière dont les entreprises peuvent se conformer au RGPD pour entraîner l’IA. Un document final contenant des mesures et des garde-fous pratiques et acceptables serait une bonne idée », estime Luiza Jorovsky.

Pour l’heure, les pays membres listent les éléments de bonne conduite. En France, la CNIL, souvent considérée comme un fer de lance de l’application du RGPD en UE, a livré sept « fiches pratiques de l’IA » listant un ensemble de recommandations pour entraîner et déployer des algorithmes dans le cadre légal franco-européen.

« Cependant, les entreprises doivent être beaucoup plus transparentes et éthiques », estime Luiza Jorovsky. « Même cette lettre n’est pas totalement transparente, car le problème spécifique soulevé (Meta n’utilisant pas les données de l’UE) aurait pu être résolu immédiatement si l’entreprise avait demandé le consentement des personnes, mais elle n’a pas voulu de cette option et ne l’a pas mentionnée ici ».

Les géants du Web ont encore du mal avec le consentement, signale NOYB

Ici, Luiza Jorovsky reprend à son compte l’avis de l’association NOYB dont la figure de proue n’est autre que Max Shrems.

En juin 2024, l’ONG avait obtenu gain de cause auprès de l’autorité de protection des données personnelles irlandaise face à Meta. Après 11 plaintes de l’association, le géant des réseaux sociaux s’était engagé « à ne pas traiter les données des utilisateurs de l’UE pour des “techniques d’intelligence artificielle” non définies ».

En août, les membres de la NOYB ont émis 9 plaintes à l’encontre de X et xAI dans neuf pays différents (Autriche, Belgique, France, Grèce, Irlande, Italie, Pays-Bas, Espagne, Pologne). L’enjeu ? L’exploitation des données de 60 millions d’utilisateurs du réseau social pour entraîner des LLM sans le consentement explicite des utilisateurs.

« Les entreprises qui interagissent directement avec les utilisateurs doivent simplement leur proposer un oui/non avant d’utiliser leurs données », affirme Max Schrems, président de NOYB. « Elles le font régulièrement pour beaucoup d’autres choses, et cela serait donc tout à fait possible pour l’apprentissage de l’IA ».

Pour la NOYB, le consentement permettrait certes de recueillir une fraction des données des utilisateurs, mais cette fraction serait suffisante pour la plupart des cas d’usage. Dans un même temps, l’association doute que les géants du Web respectent leurs promesses.

Selon Max Schrems, l’autorité irlandaise aurait obtenu un engagement de la part de xAI de ne plus utiliser les données des usagers européens. Une semaine plus tard, xAI présentait le LLM Grok 2. « Il s’avère que le modèle d’IA a été entraîné avec des données de l’UE et que “l’engagement” n’a probablement aucune valeur ».

Pour approfondir sur Réglementations et Souveraineté

Close