Jon Le-Bon - Fotolia
L’intelligence artificielle démystifiée par… une IA
Un spécialiste de la Data Science (Ekimetrics) sort un chatbot pour évangéliser le grand public sur les impacts réels de l’IA sur leurs vies. Pour les professionnels, l’outil est aussi un démonstrateur qui illustre des méthodes afin de faire une IA « responsable » et en contrôler l’empreinte écologique.
Comment démocratiser l’Intelligence artificielle ? Une des manières est d’expliquer ce qu’elle est et de répondre aux questions (parfois angoissées) de son impact sur nos vies. Et quoi de mieux, pour répondre aux questions sur l’IA que d’utiliser… l’IA elle-même ?
C’est dans cette optique d’évangélisation que le cabinet spécialisé en data science, Ekimetrics, a sorti un chatbot. Baptisé CLAIR, cette interface à la ChatGPT est accessible en ligne. Elle fait d’une pierre deux coups, puisque CLAIR est également un démonstrateur pour les professionnels de ce qu’il est possible de faire avec plusieurs techniques d’IA.
Trois agents et une synthèse
Basée sur la technologie GPT-4 d’Open AI, le bot repose sur une IA multi-agents, « une première dans une application à destination du grand public », insiste Ekimetrics. Concrètement, CLAIR est composé de trois « agents » qui ont chacun leur spécialité : la technique (Ada), la régulation comme l’IA Act, (Norma), et la dimension sociale (Sophia).
Annabelle BlangeroDocteure en Neurosciences et Lead Responsible AI chez Ekimetrics
Chaque agent à son propre modèle de langage (LLM), toujours un GPT-4, mais fine-tuné différemment. Et surtout chaque algorithme a son propre corpus documentaire (fiches pratiques de la CNIL, rapports officiels de l’Oxford Commission on AI & Good Governance ou de la Commission interministérielle sur l’IA, etc.).
« Chaque agent (Ada, Sophia et Norma) a accès à une base différente », confirme au MagIT Annabelle Blangero, docteure en Neurosciences et lead responsible AI chez Ekimetrics. « La liste des documents est disponible sur l’interface. Pour répondre aux questions, les agents ont le choix entre leurs connaissances internes ou d’effectuer une recherche dans la base documentaire ».
Un quatrième modèle synthétise les contributions des trois agents pour fournir une réponse complète.
Un démonstrateur B2B d’IA « responsable » B2C
CLAIR a aussi pour vocation de promouvoir, par l’exemple, la notion d’IA responsable.
Ses réponses sont sourcées. Et côté empreinte carbone – on sait que l’IA générative est particulièrement énergivore –, un compteur carbone (une bibliothèque développée par l’association Data for Good) évaluera la consommation des requêtes.
CLAIR est aussi – voire surtout, pour les professionnels – un démonstrateur grandeur nature de la manière d’architecturer un chatbot afin de limiter cette empreinte.
L’idée sous-jacente est de cartographier les différentes tâches et de cantonner les LLMs là où ils apportent de la valeur. Le reste est confié à des formes de machine learning et de deep learning plus frugales, et plus « classiques », comme du NLP.
« C’est une autre règle de base. Plus vous vous décomposez, plus vous maîtrisez chacun des blocs », explique Jean-Baptiste Bouzige, CEO et co-fondateur d’Ekimetrics. Le découpage facilite l’interprétabilité, la détection de la source de biais et permet « de remplacer “telle ou telle vis”, plutôt que de réentraîner tout le moteur parce que le contexte a changé ».
Trois démonstrateurs, une même philosophie d’architecture
Ekimetrics avait déjà sorti deux bots/démonstrateurs : ClimateQ&A (sur les données du GIEC) et Spinoza avec Reporter Sans Frontières. Leurs principes d’architecture – découpée pour être plus modulable, responsable et frugale – sont les mêmes que ceux appliqués pour CLAIR.
Jean-Baptiste BouzigeCEO et co-fondateur d’Ekimetrics
Dans Climate Q&A, « toute la sélection des paragraphes pertinents pour une question [était déjà] faite avec des modèles NLP. Il y a 4 ou 5 modèles d’IA [non générative] en amont du moment où on demande au LLM de résumer », détaille Jean-Baptiste Bouzige. « Nous recommandons de circonscrire l’usage des LLMs aux parties de la chaîne où ils sont absolument incontournables ». C’est-à-dire le Q&A, l’interface homme-machine, le dialogue ou le résumé, liste le CEO.
« De manière générale, décomposer la complexité pour mettre le plus possible de connaissances métiers en amont est une bonne idée », recommande-t-il, dans une optique de « Source Grounded AI ».
À noter que dissocier totalement le RAG des LLMs permet aussi, en plus des économies d’énergies et de tokens, d’évaluer plusieurs IA génératives pour les comparer.
Pour diminuer encore son empreinte, la prochaine étape pour CLAIR consistera à explorer des modèles plus petits. Le but sera d’améliorer « l’équilibre entre performance et frugalité » anticipe Jean-Baptiste Bouzige qui rappelle que plus le modèle est spécialisé, moins il consomme d’énergie. « Or les petits modèles sont souvent des modèles qu’on a spécialisés ».
CLAIR vs CEO : on refait le match
Mais revenons à l’utilisateur. CLAIR se veut une réponse aux questions que pose l’IA. Ekimetrics rappelle qu’un sondage d’Odoxa montre que 70 % des Français estiment que l’IA est une menace pour l’humanité et pour l’environnement (58 %).
Jean-Baptiste BouzigeCEO et co-fondateur d’Ekimetrics
« Il est vrai que, par certains aspects, l’IA peut faire peur », concède Annabelle Blangero. « Mais elle regorge aussi de nombreux atouts. C’est pour cela que nous souhaitions mettre CLAIR à la disposition du plus grand nombre, pour que chacun puisse avoir une vision plus nuancée et plus objective ».
Un des sujets les plus polémiques et anxiogènes reste celui de l’emploi : l’IA va-t-elle remplacer des emplois entiers ? Ou simplement « des bouts d’emplois » comme l’avancent certains, mais comme d’autres en doutent ?
Pour juger de la qualité de CLAIR, le mieux était de lui poser la question :
Puis de la poser à Jean-Baptiste Bouzige.
« Nous sommes convaincus que la valeur maximale vient de la combinaison de l’humain et de l’IA », répond-il au MagIT. « Il est de notre devoir de savoir créer des processus métier qui lient intimement les deux. C’est une démarche complexe, car elle nécessite de repenser les métiers en profondeur, de redéfinir certaines tâches par exemple. Mais c’est une démarche nécessaire pour préserver à la fois les métiers et la qualité de ce qui est délivré. Car l’IA seule va inexorablement et progressivement moyenniser la qualité ».
Un dernier élément absent de la réponse de CLAIR. Comme quoi, un bon professionnel a (encore et toujours) plus de valeur qu’un bon chatbot.
Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire
-
Bulle de l’IA générative : un arbre qui cache la forêt de l’intelligence artificielle ?
-
L’IA générative n’est pas l’Intelligence Artificielle Générale (et autres confusions sur la GenAI)
-
De l’IA générative à l’IA « agentique » (rapport)
-
Dix pistes pour diminuer l’empreinte environnementale de vos projets de GenAI