L'éthique, passage obligé pour le développement de l'IA
L'intelligence artificielle pose autant de questions philosophiques que technologiques. En cause, les mythes et les fantasmes qui lui sont associés, colportés par la littérature et le cinéma. Mais aussi les déceptions qu'elle a causées. Aujourd'hui, vraisemblablement mature, elle nous oblige à prendre conscience de ses limites et à réfléchir à l'usage que nous voulons en faire.
Pas un jour ne se passe sans qu'un colloque ou une réunion n'aborde les questions de la responsabilité et de l'éthique vis-à-vis de l'intelligence artificielle (IA). Les entreprises et les organisations ont pris conscience du rôle que les outils d'IA peuvent jouer dans leur développement, mais peu d'entre elles ont abordé les aspects essentiels à la réussite des projets, à savoir la confiance et l'éthique.
Une récente étude de Cognizant, menée auprès d'un millier de dirigeants européens et étasuniens, affirme que la moitié seulement des entreprises ont mis en place des politiques qui traitent des questions d'ordre éthique liées à l'IA.
Réfléchir maintenant
« L'IA crée de nombreux fantasmes liés à la science-fiction et au cinéma, mais nous devons nous raccrocher à ce qu'elle est vraiment, ne pas la réduire aux réseaux de neurones ou au Deep Learning, et voir ses limites », affirme Bernard Ourghanlian, directeur Technique et Sécurité de Microsoft France. « L'IA apprend des modèles, elle est efficace sur certaines tâches comme la reconnaissance d'images ou la traduction, mais elle est incapable d'apprendre sur peu d'exemples et de généraliser comme le fait un enfant ».
Bernard Ourghanlian échangeait avec Jean-Gabriel Ganascia, professeur à l'université Paris-Sorbonne et président du comité d'éthique du CNRS, à l'occasion d'une master class sur le thème « IA et Ethique ».
« L'IA crée de nombreux fantasmes liés à la science-fiction et au cinéma, mais nous devons nous raccrocher à ce qu'elle est vraiment, ne pas la réduire aux réseaux de neurones ou au Deep Learning, et voir ses limites », affirme Bernard Ourghanlian, directeur Technique et Sécurité de Microsoft France. « L'IA apprend des modèles, elle est efficace sur certaines tâches comme la reconnaissance d'images ou la traduction, mais elle est incapable d'apprendre sur peu d'exemples et de généraliser comme le fait un enfant ». Bernard Ourghanlian échangeait avec Jean-Gabriel Ganascia, professeur à l'université Paris-Sorbonne et président du comité d'éthique du CNRS, à l'occasion d'une master class sur le thème « IA et Ethique ».
Leur ambition était de dépasser les mythes de l'IA, d'aborder les questions de l'éthique et du développement d'une « IA responsable » sous le double éclairage de la technologie et des sciences humaines. Quelques jours plus tôt, Microsoft avait annoncé que son campus d'Issy-les-Moulineaux avait été choisi pour accueillir son nouveau centre mondial de développement dédié à l'IA, ajoutant encore à la reconnaissance de la France dans le domaine de la recherche en IA.
Corrélations et causalités
Le concept de « singularité technologique », qui prédit que les machines seront plus intelligentes et plus performantes que les humains, fait peur. « Cela est dommageable et masque les vrais problèmes, d'où la nécessité de l'éthique », insiste Jean-Gabriel Ganascia. Pour les débateurs, il faut la distinguer de la morale : « l'éthique est personnelle, philosophique, alors que la morale différencie le bien du mal, elle pose des règles ».
Or le numérique a transformé toute la société, à commencer par les liens entre les personnes via les réseaux sociaux. Il a transformé les notions d'amitié, de réputation, de confiance, de vérité, allant jusqu'à remettre en cause le modèle démocratique…
« De nouvelles questions se posent avec l'IA sur la prise de décision notamment, car il existe des biais », poursuit Bernard Ourghanlian. Il cite l'exemple de Compas, un algorithme qui évalue la probabilité de récidive des prisonniers nord-américains et dont les résultats diffèrent selon la couleur de peau des prisonniers, alors que cette information n'existe pas dans les données fournies à l'algorithme…
« Les biais sont le reflet de ce que l'on apprend à l'algorithme, ce sont les biais de la société elle-même, de chaque personne qui a conçu l'algorithme… ». Jean-Gabriel Ganascia précise : « la machine détecte des corrélations, pas des causalités. Il existe une corrélation entre l'usage de crème solaire et le cancer de la peau. La crème est-elle la cause du cancer ? Ou peut-être est-ce le soleil, parce qu'on utilise de la crème solaire lorsqu'il y a du soleil et que l'exposition au soleil provoque des cancers de la peau ? ».
Transparence et explicabilité
La question des biais entraîne les questions de la transparence des algorithmes et de leur explicabilité. Les critiques à l'égard du programme d'admission post-bac APB remplacé depuis par Parcoursup portaient sur le fait que les élèves – et surtout leurs parents – ne comprenaient pas comment le choix était fait, comment la décision était prise.
Antoine Petit, président du CNRS, soulevait cette question lors du débat sur l'IA responsable organisé par Impact AI fin janvier : « pourquoi veut-on que l'on nous explique l'algorithme post-bac alors que personne ne demande si les algorithmes qui font voler les avions sont conformes ? ». Il faut que l'IA inspire confiance pour que les concepteurs des algorithmes n'aient plus à justifier leurs programmes.
Pour Jean-Gabriel Ganascia, « L'éthique est utile lorsqu'on aborde les vrais problèmes, mais l'IA sera alors confrontée au “triptyque du dilemme éthique” : il faut concilier la protection de la vie privée, la transparence juridique et la sécurité. Par exemple, on protège la vie privée des individus, mais il peut être utile de savoir qu'un enseignant a été condamné pour pédophilie ou qu'un réfugié est fiché comme terroriste… Trouver des solutions acceptables passe forcément par des arbitrages ».
Le dilemme de l'éthique
Microsoft est justement pris dans ce triptyque du dilemme éthique. La société s'est dotée d'une charte pour une IA responsable, charte qui précise le cadre dans lequel des solutions seront ou non développées.
La société aurait déjà refusé de travailler pour un gouvernement jugé trop totalitaire. Or, des employés viennent d'adresser une lettre ouverte à Satya Nadella, PDG de Microsoft, lui demandant de mettre fin au contrat signé avec l'armée américaine, car celle-ci compte utiliser les solutions de la société, notamment la technologie de réalité virtuelle Hololens, pour développer des armes. Interviewé par CNN, le PDG de Microsoft leur a répondu que la société ne refuserait pas ses technologies aux institutions élues dans une démocratie pour protéger les libertés dont jouissent les Américains. L'année dernière, face à la fronde de ses employés, Google avait renoncé à un programme de plusieurs milliards de dollars avec le Pentagone.