Kiattisak - stock.adobe.com

La nécessité de promouvoir le développement d’une IA responsable à l’heure de l’IA générative

L’intelligence artificielle constitue et constituera un formidable outil pour résoudre nombre de problématiques, mais son développement doit plus que jamais être accompagné de règles pour en tirer un maximum de bénéfices. 

Nous vivons actuellement une période d’effervescence autour de l’intelligence artificielle. Effervescence technologique d’abord avec la sortie de ChatGPT, assistant virtuel novateur de la part d’OpenAI et qui a permis de souligner les immenses progrès réalisés ces dernières années notamment en terme de traitement naturel du langage ou d’IA générative.

Effervescence législative ensuite, avec l’adoption récente de la part du Parlement Européen de l’AI Act, ayant pour objectif d’encadrer et de réguler l’utilisation des systèmes d’intelligence artificielle par n’importe quelle entreprise de l’Union Européenne. Les législateurs ont même dû ajouter des amendements au texte initial, en discussion depuis plus de deux ans, pour prendre en compte l’explosion de l’utilisation des IA génératives.

Pour certains, ces deux trajectoires apparaissent en totale contradiction, considérant que le progrès technologique et l’innovation seraient nécessairement ralentis lorsque le législateur s’empare d’un sujet. Au contraire, nous croyons que le futur de l’IA réside dans le développement d’une IA responsable, encadrée et bénéfique pour nos entreprises et nos sociétés.

L’AI Act : la première pierre pour la construction d’une IA responsable

L’AI Act, adopté par le Parlement Européen le 14 Juin 2023, fait figure de pionnier au niveau mondial, tant la régulation de l’Intelligence Artificielle apparaît encore comme un lointain sujet pour nombre d’Etats.

Si une version définitive du texte doit encore être négociée avec la Commission Européenne et le Conseil de l’Europe et que son application concrète au sein des entreprises n’est pas attendue avant 2025 au plus tôt, il s'agit d’une première étape bienvenue dans l’optique d’encourager le développement d’une IA dite responsable.

Ce texte pose en effet des principes fondamentaux comme l’interdiction des systèmes d’IA favorisant la manipulation, le social scoring ou encore l’identification biométrique en temps réel et à distance comme la reconnaissance faciale.

De plus, en adoptant une approche par les risques, le texte permet d’apporter une réponse mesurée et graduelle aux défis posés par l’intelligence artificielle. Les systèmes d’IA jugés à haut risque seront ceux soumis aux contraintes les plus fortes avec un certain nombre de principes clés dans le développement d’une IA responsable : absence de biais, explicabilité des algorithmes et transparence, contrôle et monitoring humain, gestion des risques.

Faire reposer la responsabilité d’un développement contrôlé sur les systèmes les plus critiques constitue un moyen efficace d’embarquer nos entreprises dans une approche vertueuse.

Élargir le champ, au-delà de l’AI Act

Néanmoins, ce cadre législatif ne saurait être une fin en soi en ce qui concerne l’IA responsable. D’abord parce l’IA étant une technologie très évolutive par nature, il sera nécessaire d’amender et de faire évoluer ce texte très régulièrement pour que le rythme législatif suive le rythme technologique ; ce qui peut s’apparenter à une gageure dans le domaine.

Ensuite, parce que si l’Union Européenne prend le pari du développement d’une IA responsable elle ne saurait faire cavalier seul, notamment face aux géants du secteur que sont les Etats-Unis et la Chine. Et si ces pays ont fait plusieurs annonces en faveur de la régulation de l’IA, on peut s’interroger sur le type de réglementation qui serait mise en œuvre, notamment en Chine où des recommandations existent déjà et imposent par exemple de se conformer « aux valeurs fondamentales du socialisme » et de ne pas porter atteinte « au pouvoir de l’Etat ».

Là encore, sans cadre mondial autour des principes clés d’une IA dite responsable, il sera difficile pour l’Europe d’imposer sa vision des choses.

Utiliser l’IA responsable comme avantage comparatif

Mais au-delà du seul cadre légal et contraignant, nous sommes convaincus que le développement d’une Intelligence Artificielle responsable peut constituer un avantage comparatif pour nos entreprises.

En la matière, l'AI Act devrait permettre aux entreprises de l’UE de se positionner en tant que tiers de confiance, faisant de cet argument un facteur différenciant dans le choix d’une solution technologique.

Mais surtout, on sait depuis longtemps que pour favoriser l’adoption de l’IA par une large majorité de personnes, que ce soit au sein de nos entreprises ou au sein de nos sociétés, il est nécessaire d’instaurer un niveau de confiance élevé dans la technologie.

A cet égard, le développement d’une IA suivant des critères de responsabilité ouvre la voie à une plus grande confiance de nos concitoyens, car il est fondamental de garder en tête qu’il s’agit d’une technologie très souvent fantasmée et parfois crainte. Les entreprises ne sauraient, dès lors, pousser la mise en production massive des IAs sans une adoption concrète et volontaire de la part des utilisateurs cibles.

Or, pour être en mesure d’en tirer tous les bénéfices attendus, il est indispensable que l’IA soit déployée à l’échelle et dans des secteurs stratégiques. Et comment s’attendre à ce que des secteurs comme la recherche, la santé ou encore l’éducation l’adoptent sans de très sérieuses garanties sur sa fiabilité.  

Concilier IA générative et IA responsable

Et s’il y a une typologie d’intelligence artificielle qui occupe le devant de la scène ces derniers temps, c’est l’IA générative, avec des annonces en cascade et des levées de fond qui se multiplient pour les startups du secteur.

Les promesses technologiques autour de l’IA générative sont immenses et beaucoup d’entreprises se posent actuellement des questions sur son utilisation concrète. Même si nous en sommes encore à une phase d’exploration, nous pouvons commencer à entrevoir les potentielles transformations apportées par la technologie, que ce soit dans nos métiers ou dans notre quotidien : Microsoft 365 Copilot dont la promesse est de nous aider à construire nos supports Word, Power Point ou Excel ; ChatGPT et ses plugins permettant un accès à l’information facilité ; les solutions de génération d’image pouvant être utilisées dans le marketing ou dans la publicité…

Néanmoins, le développement des solutions d’IA générative ne saurait se faire sans prendre en compte les notions de responsabilité, peut-être encore plus importantes dans le cadre d’une technologie qui apparaît comme plus puissante que ce que nous avons connu jusqu’à présent.

Car si ces solutions peuvent être un formidable outil au service du collaborateur moderne, il faut garder en tête les limites actuelles du modèle : manque de transparence sur les sources utilisées, utilisation de sources protégées par des droits d’auteur, modèle reposant sur des milliards de paramètres rendant toute explicabilité impossible, forte consommation énergétique pour l'entraînement et l'utilisation des modèles, risque d’utilisation à des fins malveillante…

A cet égard là aussi, l’AI Act pose les premières bases d’un cadre qu’il serait souhaitable de voir s’étendre à l’échelle mondiale. Car s’il est nécessaire d’encourager l’innovation et la recherche dans le domaine, cela doit se faire dans le respect des droits humains les plus fondamentaux et au bénéfice de nos entreprises et de nos sociétés.

De plus, il est fondamental de garder en tête que l’IA est avant tout un outil qui doit servir un objectif concret. A cet égard, le développement de modèles extrêmement puissants mais peu utilisables dans le monde réel doit pouvoir être interrogé, notamment car le coût écologique de tels modèles est loin d’être neutre.

Finalement, s’il nous apparaît clair que l’intelligence artificielle constitue et constituera un formidable outil pour résoudre nombre de problématiques, son développement doit plus que jamais être accompagné de règles pour en tirer un maximum de bénéfices. 

Pour approfondir sur Intelligence Artificielle et Data Science