Impact AI publie une bibliothèque d'outils pour la gouvernance de l'IA
A l'occasion d'une conférence qu'il a organisée fin janvier, le collectif de réflexion Impact AI, qui prône le développement d'une IA responsable, a lancé une bibliothèque ouverte et collaborative d'outils, de gouvernance, de formations et de publications relatives à l'IA responsable.
Impact AI est une association loi 1901 qui rassemble des acteurs aussi variés que des chercheurs, des représentants de grands groupes, des associations et des start-up autour d'un ambitieux projet : mener une réflexion et des actions concrètes sur le développement d'une IA responsable en France et au-delà. Le groupe de travail « IA responsable » de ce collectif, piloté par Cécile Wendling, directrice de la prospective du groupe AXA, a organisé une conférence fin janvier sur ce thème.
Concilier éthique et business
« Il faut faire en sorte que l'IA soit au service du plus grand nombre et pas aux mains de quelques Etats ou de quelques grands industriels », a affirmé d'emblée Antoine Petit, président-directeur général du Centre national de la recherche scientifique (CNRS).
Pour cela, il faut réfléchir à la gouvernance de l'IA, en impliquant les Sciences humaines et sociales (SHS), réfléchir à ce que l'on attend de l'IA, à ce que l'on veut que les algorithmes fassent, réfléchir aux conflits d'intérêts qui pourraient se présenter. « En fait, l'IA nous oblige à nous poser les bonnes questions » a-t-il poursuivi. « Mais il ne faut pas opposer éthique et business, il faut éviter de faire de l'Europe le territoire de l'innovation et de l'éthique et des Etats-Unis et de la Chine le territoire du business ».
La question de la confiance
Raja Chatila, professeur à Sorbonne Université et président de l'IEEE Global initiative on ethics of autonomous and intelligent systems a souligné la rapidité à laquelle l'IA progresse : « la situation est nouvelle, les choses vont très vite alors que nous avons besoin de temps pour nous assurer que les produits sont dignes de confiance, pour trouver les consensus et élaborer les standards industriels. Comment faire pour qu'un système ne soit pas mis sur le marché trop tôt ? ».
Particularité de l'IA, cette question des enjeux économiques et l'accélération actuelle du marché « obligent à se poser la question de la confiance et à expliquer les algorithmes. Cela nous conduit à travailler avec le monde académique car aujourd'hui, c'est lui qui produit de l'innovation, et ça va très vite ! », remarque Arnaud de Moissac, co-fondateur et CEO de DCBrain, qui propose une solution d'IA pour optimiser les réseaux de fluides.
Des outils, mais pas que ça
Bernard Ourghanlian, directeur technique et sécurité de Microsoft France, a présenté l'organisation du comité d'éthique de Microsoft et insisté sur la possibilité donnée aux équipes de refuser de travailler pour certains pays ou certaines organisations si des points de la charte n'étaient pas respectés.
Cela montre bien que « les outils ne sont qu'une toute petite partie de la solution et que réfléchir aux principes n'est pas aussi simple que cela », a constaté Nicolas Demassieux, directeur d'Orange Labs Recherche.
C'est pourquoi, outre des outils techniques téléchargeables (Github), la boîte à outils ouverte et collaborative mise en ligne par Impact AI comporte également des outils de gouvernance, des formations et des publications. Car la gouvernance de l'IA concerne tout autant les dirigeants que les développeurs, les services juridiques que les ressources humaines.