Patrick Daxenbichler - Fotolia

Les leçons à retenir du controversé BlenderBot 3 de Meta

Le lancement par Meta du chatbot d’IA BlenderBot 3 soulève des inquiétudes quant à la responsabilité des entreprises qui utilisent des données en provenance d’Internet afin d’entraîner leurs systèmes d’IA. De son côté, le groupe assume la toxicité relative de son modèle de deep learning, qu’il semble percevoir comme un moyen de récolter des données sur les conversations à éviter.

Le 5 aoĂ»t, le gĂ©ant des rĂ©seaux sociaux a prĂ©sentĂ© BlenderBot 3 dans un billet de blog. Ce chatbot a Ă©tĂ© construit sur le modèle de langage Open Pretrained Transformer, ou OPT. Avec OPT-175, l’idĂ©e des chercheurs du groupe Ă©tait d’égaler, voire de surpasser, un autre modèle de langage autorĂ©gressif, le cĂ©lèbre GPT-3 d’OpenAI et ses 175 milliards de paramètres.

S’il dispose du mĂŞme nombre de paramètres, BlenderBot 3 s’appuie sur l’architecture de SeeKeR, un modèle de langage capable de faire appel Ă  un moteur de recherche.

Meta affirme que le chatbot peut rechercher des données sur Internet pour converser sur n’importe quel sujet. Meta a également indiqué dans son article de blog que, au fur et à mesure que les gens interagissent avec le système, elle utilise les données pour améliorer l’assistant virtuel.

Les internautes ont rapidement poussĂ© BlenderBot 3 dans ses retranchements. Des articles ont Ă©voquĂ© le fait que le chatbot Ă©tait non seulement antisĂ©mite, mais aussi pro-Trump, et qu’il recrachait des diatribes conspirationnistes sur l’élection prĂ©sidentielle amĂ©ricaine de 2020. D’autres articles montrent que le chatbot s’en prend Ă  Meta et Ă  son PDG.

La campagne de mauvaise presse a conduit Meta Ă  mettre Ă  jour son billet de blog le 8 aoĂ»t, en assurant que les dĂ©fauts de BlenderBot 3 font partie de sa stratĂ©gie.

« Bien qu’il soit douloureux de voir certaines de ces rĂ©ponses offensives, des dĂ©monstrations publiques comme celle-ci sont importantes pour construire des systèmes d’IA conversationnelle vraiment robustes et pour combler le fossĂ© Ă©vident qui existe aujourd’hui avant que de tels systèmes puissent ĂŞtre mis en production Â», Ă©crit JoĂ«lle Pineau, directrice gĂ©nĂ©rale de la recherche fondamentale en IA chez Meta.

Meta n’a pas répondu à la demande de commentaires de TechTarget, le propriétaire du MagIT.

Les dangers de l’entraînement d’IA sur des données publiques

La déclaration de Meta sur les démonstrations publiques est à la fois correcte et incorrecte, considère Will McKeon-White, analyste chez Forrester.

« Les gens sont particulièrement inventifs en matière d’utilisation des langages Â», constate-t-il. « Il est très difficile pour les robots de comprendre des choses comme les mĂ©taphores et les simulacres, et cela pourrait aider Meta en partie. Il faut en effet beaucoup de donnĂ©es pour entraĂ®ner un chatbot, et ce n’est pas facile ».

Cependant, « Meta aurait dĂ» appliquer des conditions d’utilisation ou des filtres pour empĂŞcher les gens d’utiliser le chatbot Ă  mauvais escient Â», poursuit-il.

« Si vous savez ce qui se passe, alors vous auriez dĂ» prendre des mesures supplĂ©mentaires pour l’éviter Â», affirme Will McKeon-White. « Les rĂ©seaux sociaux ne fournissent pas un bon jeu de donnĂ©es d’entraĂ®nement, et le fait de l’avoir rendu publiquement disponible ne permet pas non plus de bien l’entraĂ®ner Â».

Le BlenderBot 3 de Meta n’est pas sans rappeler Tay, un agent conversationnel propulsĂ© Ă  l'IA et lancĂ© par Microsoft en 2016. Ă€ l’instar de BlenderBot 3, Tay a Ă©galement Ă©tĂ© citĂ© pour son caractère misogyne, raciste et antisĂ©mite. La controverse entourant Tay a poussĂ© Microsoft Ă  le fermer quelques jours après la diffusion du système sur les rĂ©seaux sociaux.

Trouver d’autres données d’entraînement

Étant donnĂ© que les chatbots IA, comme BlenderBot 3 et Tay, sont souvent entraĂ®nĂ©s Ă  partir d’informations et de donnĂ©es accessibles au public, « il ne faut pas s’étonner qu’ils dĂ©bitent des informations toxiques Â», dĂ©clare Mike Bennett, directeur du programme d’enseignement et responsable de l’IA responsable Ă  l’Institute for Experiential AI de la Northeastern University.

« Je ne sais tout simplement pas comment les grands groupes technologiques qui investissent dans ces chatbots vont, d’une manière Ă©conomiquement rationnelle, former ces logiciels rapidement et efficacement pour qu’ils fassent autre chose que parler dans le mode des sources qui ont servi Ă  les entraĂ®ner Â», souligne Mike Bennett.

Les petites entreprises et les commerces peuvent trouver d’autres donnĂ©es de formation, mais l’investissement dans le dĂ©veloppement d’un ensemble de donnĂ©es sĂ©lectionnĂ©es pour entraĂ®ner les chatbots â€“ et le temps nĂ©cessaire â€“ serait coĂ»teux.

Une solution moins onĂ©reuse consisterait en la mise en commun de ressources par de plus petites entreprises pour crĂ©er un jeu de donnĂ©es permettant de former des chatbots. Toutefois, cela entraĂ®nerait des frictions puisque les organisations travailleraient avec des concurrents, et il faudrait du temps pour dĂ©terminer qui possède quoi, selon M. Bennett.

Faut-il se mĂ©fier du NLG ?

Une autre solution consiste à éviter de lancer prématurément des systèmes de ce type.

Les marques et les entreprises qui exploitent la génération automatique de langage naturel (NLG) doivent surveiller de près leur système. Elles doivent l’entretenir, comprendre ses tendances et modifier l’ensemble des données si nécessaire avant de le rendre public, explique l’analyste de Forrester.

Si les entreprises choisissent de tirer leurs données d’entraînement d’Internet, il existe de multiples façons de le faire de manière responsable, ajoute-t-il. Une politique de conditions d’utilisation peut empêcher les utilisateurs d’abuser de la technologie. Une autre solution consiste à mettre en place des filtres en arrière-plan ou à dresser une liste de mots interdits que le système ne doit pas générer.

En raison des performances de BlenderBot, la prudence sera vraisemblablement de mise en ce qui concerne les systèmes NLG, anticipe Will McKeon-White.

« Cela va probablement altĂ©rer l’expĂ©rimentation de ces systèmes pendant un certain temps Â», ajoute-t-il. « Cela durera jusqu’à ce que les fournisseurs puissent fournir des filtres ou des protections pour des systèmes comme ceux-ci Â».

Les chercheurs de Meta veulent se faire nourrir par les trolls

De leur cĂ´tĂ©, les chercheurs de Meta sont parfaitement conscients de la toxicitĂ© potentielle du chabot. Si OPT-175 reconnaĂ®t mieux les biais racistes, misogynes ou nocifs dans les textes, il avait dĂ©jĂ  tendance Ă  gĂ©nĂ©rer davantage de contenus toxiques que ses Ă©quivalents. Les responsables du projet BlenderBot 3 ont mis en place tout un ensemble de mĂ©canismes lors de l’entraĂ®nement et l’infĂ©rence du modèle, notamment un classificateur externe qui doit « inhiber les gĂ©nĂ©rations risquĂ©es Â».

Une liste de mots clĂ©s a Ă©galement Ă©tĂ© introduite pour Ă©viter les dialogues dĂ©lĂ©tères. Une vĂ©rification finale est effectuĂ©e au moment d’émettre une rĂ©ponse si l’application a dĂ©tectĂ© une interaction « malveillante Â» de la part de l’usager. MalgrĂ© tout cela, BlenderBot3 « gĂ©nère encore des contenus toxiques en petit pourcentage Â», reconnaissent les chercheurs de Meta.

Les remarques de Mike Bennett et de Will McKeon-White sont donc à la fois pertinentes et en partie erronées.

« Si nos mĂ©canismes de sĂ©curitĂ© ne parviennent pas Ă  empĂŞcher notre bot de dire quelque chose d’inappropriĂ©, d’impoli ou d’offensant, notre interface utilisateur dispose de mĂ©canismes de retour d’information pour que les utilisateurs puissent signaler ses messages Â», Ă©crivent les chercheurs de Meta.

« Les donnĂ©es collectĂ©es seront communiquĂ©es Ă  la communautĂ© afin d’amĂ©liorer les systèmes existants et de rendre nos modèles plus responsables au fil du temps Â».

Meta ne joue pas dans la même cour que les clients des solutions d’IA. Le groupe préfère explorer des possibilités avancées qu’il exploitera par la suite pour ses propres besoins ou à des fins commerciales.

En clair, si le projet BlenderBot 3 Ă©choue, c’est pour mieux entraĂ®ner la prochaine version du chatbot. Les chercheurs de Meta Ă©voquent une nouvelle architecture nommĂ©e DIRECTOR qu’ils envisagent d’implĂ©menter ultĂ©rieurement.

DIRECTOR repose, elle aussi, sur un décodeur standard auquel les responsables du projet ont ajouté une tête de classification par mot généré.

Le modèle de deep learning qui en dĂ©coule peut ĂŞtre « entraĂ®nĂ© sur des donnĂ©es non labellisĂ©es (comme la plupart des modèles NLG N.D.L.R), et des donnĂ©es labellisĂ©es permettant d’indiquer si une sĂ©quence gĂ©nĂ©rĂ©e est souhaitable ou non Â». DIRECTOR s’est dĂ©jĂ  montrĂ© plus performant que d’autres techniques pour dĂ©tecter et Ă©viter la production de textes toxiques, incohĂ©rents ou rĂ©pĂ©titifs, selon les chercheurs de Meta.

Pour approfondir sur Intelligence Artificielle et Data Science