efks - stock.adobe.com
Les éditeurs avancent sur le marquage et la détection des contenus générés par IA
OpenAI travaille sur des outils pour identifier les contenus créés par ses IA génératives. Google étend sa technologie de marquage SynthID. Ces deux initiatives sont représentatives d’un mouvement global, alors que des législations contre les « fake » sont à l’étude à l’approche d’élections majeures.
En 2024, la moitié de la population mondiale est appelée aux urnes. Problème, avec les progrès de l’intelligence artificielle, les « deepfakes » gagnent en crédibilité. Et les risques de manipulation électorale et de désinformation politique sont désormais perçus comme des risques majeurs de déstabilisation.
Aux États-Unis (pays qui va voter), le Congrès examine actuellement des projets de loi pour lutter contre les « fakes » et pour protéger la voix et les images des personnes. Le but est qu’elles ne soient pas légalement utilisables pour générer des faux avec des algorithmes.
Plusieurs éditeurs ont répondu à ces préoccupations. Joignant le geste à la parole, Meta a par exemple déclaré en février qu’il allait étiqueter les contenus générés par l’IA sur Facebook et Instagram.
Google open source SynthID
En août 2023, Google avait sorti la première version de SynthID, une méthode pour marquer les contenus générés par l’IA de manière imperceptible pour les humains, mais détectable par les machines.
Le principe pour un texte est d’ajuster la probabilité que différents mots soient générés. Pour les images et la vidéo, SynthID intègre un filigrane.
En marge de sa conférence Google I/O, Google a annoncé qu’il allait étendre et infuser cette méthode dans plusieurs de ses produits : dans Gemini (son ChatGPT maison), dans Veo (générateur de vidéo à partir d’une description) et VideoFX (effets spéciaux générés par l’IA).
SynthID sera également open sourcé cet été pour que les développeurs qui le souhaitent puissent l’intégrer à leurs propres modèles.
OpenAI ouvre son classificateur de reconnaissance d’images
Pour Sam Altman, le CEO d’OpenAI, les éditeurs aurait tous bien reçu le message du Congrès. Ils prendraient la question de l’ingérence au sérieux et ils auraient mis en place des défenses technologiques contre la désinformation.
Des défenses suffisantes ? À voir.
Le 7 mai, en tout cas, OpenAI a ouvert les demandes pour accéder à son classificateur de reconnaissance d’images. Comme son nom l’indique, cet outil estime la probabilité qu’une image soit générée par son modèle Dall-E 3.
Des tests internes montreraient que le classificateur a correctement identifié 98 % des images générées par Dall-E 3.
L’éditeur travaille également comme Google sur le marquage des contenus (watermarking).
Enfin, OpenAI indique qu’il rejoignait le comité de pilotage de la Coalition for Content Provenance and Authenticity (C2PA), une norme utilisée pour certifier les contenus numériques et prouver qu’ils proviennent d’une source spécifique.
Signer les contenus qui n’utilisent pas l’IA
Pour lutter contre les « fakes », Sam Altman avance une autre idée pour le moins originale. Il inverse la problématique et pense qu’à l’avenir, l’accent pourrait être mis sur la vérification du contenu qui n’est pas généré par l’IA.
Lors d’une discussion avec la Brookings Institution, le CEO d’OpenAI insiste sur l’importance de l’authentification des contenus non générés par l’IA, en particulier dans des domaines critiques tels que les informations liées aux élections.
« L’idée est que si quelqu’un dans une élection a un message très important, il va le signer de manière cryptographique », avance Sam Altman « Il va dire “J’ai dit ceci, voici la preuve, et vous pouvez le vérifier”. Cela me semble être une bonne chose. Et cela me semble être un élément raisonnablement probable à l’avenir pour certains types de messages ».
L’idée est originale, mais pas saugrenue si l’on considère que le décret du président des États-Unis, Joe Biden, sur l’IA en 2023 a chargé le ministère du Commerce d’élaborer des lignes directrices pour authentifier des contenus officiels.
Reste que pour Sam Altman, l’IA en général et l’IA générative en particulier sont des technologies qui ont et auront un impact majeur sur l’économie et sur le leadership des États-Unis. Il espère donc que la problématique de l’IA ne sera pas abordée que sous l’angle de la désinformation, mais qu’elle sera un sujet prioritaire pour les candidats et pour les électeurs.
Article co-écrit avec Makenzie Holland