jim - stock.adobe.com
Les acteurs de l’IA suscitent la défiance du grand public
Selon une étude, plus de la moitié des Américains pensent que les sociétés qui développent des technologies d’IA ne tiennent pas compte de l’éthique. Et près de 90 % d’entre eux seraient favorables à une réglementation plus forte. Un signe fort, dans un pays plutôt réfractaire aux contraintes administratives.
La majorité des Américains estiment que les sociétés spécialisées dans l’Intelligence artificielle (IA) privilégient leurs profits au détriment de la sécurité, et de l’éthique. C’est ce qui ressort d’une étude universitaire. Les polémiques récentes renforceraient par ailleurs cette perception, ajoutent ses auteurs.
Cette mauvaise image contraste avec celle que tente de renvoyer le secteur, qui présente les progrès en matière d’IA comme une avancée considérable, brutale peut-être, mais positive, aussi bien pour les entreprises que pour la vie quotidienne.
Ce n’est qu’une anecdote, mais elle montre bien cette ambiance de méfiance, voire de défiance. Avec son nouveau modèle GPT 4o, OpenAI a voulu épater le monde entier avec les nouvelles fonctionnalités vocales de son modèle.
Il y est arrivé. Mais l’actrice Scarlett Johansson a immédiatement accusé l’entreprise d’avoir copié sa voix dans le film romantique Her, réalisé par Spike Jonze, dans lequel un écrivain public solitaire tombe amoureux d’un assistant IA à la voix féminine. OpenAI a démenti l’accusation tout en retirant malgré tout la voix en question, et le Washington Post a montré cette semaine des documents qui prouvent que la société n’avait pas copié la voix de Johansson. Mais l’ambiance est là…
Cette controverse est, de surcroît, survenue pile au moment où Jan Leike, qui dirigeait l’équipe sécurité d’OpenAI, a quitté l’entreprise. Jan Leike a justifié son départ sur X en déclarant que « la culture et les processus de sécurité de l’entreprise ont été relégués au second plan par rapport [à la volonté de présenter] des produits qui brillent ».
Kashyap KompellaPDG de la société de conseil RPA2AI Research
A-t-il tort ? OpenAI semble en tout cas lui donner raison puisqu’il a dissous l’équipe de « superalignement » de Jan Leike après son départ.
Mais OpenAI n’est pas le seul. D’autres acteurs majeurs de l’IA ont eux aussi « restructuré » ou réduit la voilure en matière d’équipe sécurité, comme Google, Meta, Microsoft et X, alimentant d’autant les critiques selon lesquelles le profit éclipse l’éthique.
« L’éthique-washing dans l’IA est endémique » tacle sans ménagement Kashyap Kompella, PDG de la société de conseil RPA2AI Research. « De nombreuses entreprises font de grandes déclarations sur leurs grands principes en matière d’IA responsable, mais la plupart d’entre elles ne sont que du théâtre ».
Inquiétudes concernant l’IA
Conséquence, les chercheurs du Markkula Center for Applied Ethics de l’université de Santa Clara, en Californie, ont constaté – après avoir interrogé 3 000 personnes aux États-Unis – que 68 % des Américains étaient « très préoccupés » ou « assez préoccupés » par l’impact de l’IA sur l’humanité.
L’étude montre également que la plupart des Américains se méfient des entreprises spécialisées dans l’IA : 55 % estiment que ces entreprises ne tiennent pas compte de l’éthique lorsqu’elles développent leurs algorithmes.
Ce manque de confiance contribue à ce que 86 % des interrogés pensent que les acteurs de l’IA devraient être plus réglementés et 83 % sont d’accord pour des réglementations gouvernementales plus explicites en matière d’IA. Un signal fort dans un pays, qui, par tradition, n’aime pas les tracasseries administratives.
« La confiance est probablement au niveau le plus bas de ce que j’ai pu voir depuis que je m’intéresse à la question », souligne Irina Raicu, directrice du programme d’éthique de l’internet de Markkula. « Les gens ont tout simplement peur de ces entreprises, de leurs motivations, de leur impact sur la société. Ils se demandent si elles ont vraiment l’intention d’être prudentes et raisonnables avec les outils qu’elles développent ».
Ce manque de « crédibilité » pourrait affecter les investisseurs, voire les ventes aux nombreuses entreprises de plus en plus attirées par l’IA, alerte Ann Skeet, directrice principale de l’éthique du leadership au Markkula Center.
Depuis le début de l’engouement pour l’IA, qui a débuté avec le lancement du ChatGPT d’OpenAI en 2022, les entreprises ont dû gérer des problèmes de confidentialité et de sécurité des données.
« L’atteinte à la réputation pourrait se traduire par une perte de valeur pour les actionnaires », ajoute Ann Skeet. « Et un faux pas important peut leur coûter leur réputation sur le marché ».
Ann SkeetDirectrice principale de l’éthique du leadership, Markkula Center.
Les responsables publiques ont en tout cas décidé de ne plus laisser ces acteurs décider seuls. En Europe, le Parlement a approuvé l’AI Act qui fournit un cadre réglementaire pour l’exploitation des systèmes d’IA.
Aux États-Unis, les États de Californie, du Colorado, de l’Illinois et du Texas ont introduit ou adopté des lois sensiblement similaires visant à protéger les personnes contre les dérives de l’IA.
« Cela montre que le public et les régulateurs en ont assez de compter sur ces efforts de gouvernance interne pour assurer notre sécurité à tous », traduit Irina Raicu. « Le public estime que l’implication des acteurs de l’IA n’est pas suffisante et qu’il faut donc des lois ».
Malgré cette phase de forte adversité, le secteur de l’IA pourrait renverser la tendance et redorer son image.
Le sondage de Markkula montre en effet qu’une grande partie des personnes interrogées « aiment » l’IA : 48 % estiment que ces technologies ont, actuellement, un impact positif sur leur vie, et 45 % sont « très enthousiastes » ou « plutôt enthousiastes » sur le potentiel de l’IA pour l’avenir.
Les experts sont eux aussi optimistes. Mais seulement après une prise de conscience et un changement radical des acteurs du secteur. « Pour regagner la confiance des consommateurs, ces entreprises devront faire preuve d’un engagement profond et sincère dans le développement de technologies fiables et responsables », avertit Ann Skeet.
Le feront-ils ? Aucun algorithme de Machine Learning ou de Deep Learning ne peut le prédire.
Et aussi, sur le sujet :
Claude 3, le LLM d’Anthropic qui mise sur l’éthique et une IA réellement responsable.
Confiance.AI : tout sur les livrables du projet de recherche français, mené par des acteurs académiques et des grands groupes industriels, pour une IA de confiance.