Getty Images/iStockphoto

IA générative : les entreprises face au défi de l’industrialisation

Les PoC en IA générative se sont multipliés, essentiellement dans les grandes entreprises. Mais peu d’initiatives ont été industrialisées en raison de leurs complexités. État des lieux et pistes d’amélioration.

L’adoption de l’intelligence artificielle générative est loin d’être uniforme parmi les entreprises françaises. La taille reste un facteur discriminant. Mais les grands groupes ont engagé des actions (stratégie, PoC…) et peu manquent à l’appel aujourd’hui, constate Hanan Ouazan, Generative AI Lead pour Artefact.

Du côté des TPE et PME en revanche, c’est plus timide. « Toutes les organisations ne sont pas placées à la même enseigne et les grandes entreprises sont les premières à s’être emparées du sujet », insiste Hanan Ouazan. Cela ne signifie pas pour autant que les « grands » soient parvenus à dompter cette technologie.

Peu d’industrialisation, des couacs et des ROI absents

« Peu de projets ont véritablement été industrialisés. On a par ailleurs pu observer quelques couacs, comme sur des chatbots clients. Pour d’autres, le ROI apparaît compliqué. Des acteurs ont créé des usages sans qu’en émergent de réels revenus », analyse Hanan Ouazan.

Ce bilan n’est toutefois pas si surprenant, juge-t-il. « Un an plus tôt, nous anticipions déjà la principale difficulté des projets d’IA générative, à savoir leur industrialisation. […] Quelques années plus tôt, un PoC en Intelligence artificielle [classique] nécessitait 3 à 4 mois. Pour la Gen AI, 2 à 3 semaines peuvent suffire. L’industrialisation est en revanche une tout autre histoire. Les entreprises sont en train de prendre conscience des limites des initiatives PoC. »

À cette difficulté s’ajoute la problématique de l’adoption, notamment pour les solutions de type « embedded AI » comme les Copilots. Les usages ne vont pas de soi. En outre, le ROI de ces outils reste à déterminer.

Les solutions développées en interne, c’est-à-dire issues du Make, n’échappent pas non plus aux questionnements sur l’adoption.

Malgré ces obstacles, des secteurs se montrent dynamiques sur l’IA générative, parmi lesquels le retail et le luxe. Même si pour ce dernier l’avancement est moindre qu’escompté initialement, estime le spécialiste d’Artefact. Les secteurs bancaires et santé seraient plus en retrait, mais principalement pour des questions liées au cloud et à la conformité.

RAG, Search 2.0, automatisation et créativité : 4 familles et 4 maturités

L’avancée à deux vitesses s’observe également au niveau sectoriel. Et dans la course à l’adoption, l’industrie se démarquerait, considère Hanan Ouazan.

Pour autant, même parmi les plus matures, industrialisation et passage à l’échelle (sur l’adoption et la technologie) demeurent des obstacles. En ce qui concerne les cas d’usage, ils sont d’abord axés sur les RAG associés à la recherche documentaire sur « des banques de données souvent délaissées. »

L’indexation de contenu vise des applications orientées sur l’interne (pour la productivité), mais aussi l’externe (au travers d’interfaces conversationnelles). Hanan Ouazan cite l’exemple d’un industriel engagé dans un projet destiné à rendre accessible en ligne à ses clients – via un chatbot – son catalogue produits.

Dans la distribution, l’IA générative est mise à contribution pour repenser la recherche. Le Search 2.0, basé sur la GenAI, permettrait de transformer l’expérience de recherche via une expression de besoin.

Sans citer le nom du distributeur, Artefact collabore à la conception d’une solution basée sur la recherche d’intention. « Demain, la recherche s’inscrira dans une logique d’expérience », anticipe le Generative AI Lead.

L’automatisation constitue une 3e catégorie de cas d’usage. Celle-ci englobe l’analyse des messages et des verbatim sur les centres d’appels des distributeurs afin d’identifier des irritants ou des problèmes.

« Nous récupérons tous les appels pour les transcrire puis les analyser, afin de concevoir un tableau de bord. Cette vue permet par exemple d’identifier que 3 000 appels ont pour cause un produit spécifique jugé par les clients plus petit que sur le visuel de la fiche produit. Il est possible de descendre à ce niveau de détail », illustre l’expert.

Auparavant, cette analyse de sentiment s’avérait insuffisamment performante. Désormais, la détection irait jusqu’à l’ironie.

L’automatisation couvre aussi des usages comme l’analyse de tendance sur les réseaux sociaux ou la saisie en temps réel d’information pour le back-office en banque & assurance.

Quatrième famille : la créativité. « Dans ce domaine, les usages sont moins avancés que je ne l’attendais, mais cela commence à prendre », constate Hanan Ouazan. Artefact intervient ainsi auprès de clients pour automatiser le marketing direct, par exemple afin de personnaliser (« contextualiser ») des SMS pour générer des abonnements sur la base de critères comme le terminal du destinataire.

La génération d’images pour la publicité émergerait également. Ces usages sont toutefois freinés par le flou juridique autour des droits d’auteur et des données d’entraînement des IA génératives de visuels. Les garanties juridiques promises par certains éditeurs, dont Adobe, pourraient lever les barrières dans ce domaine.

Des applications de l’IA générative sont donc bien formalisées. Les impacts en matière de transformation effective sont à nuancer néanmoins, puisque peu de projets sont en production, et encore moins accessibles aux clients finaux.

« Il y a pléthore d’outils de type Secure GPT. Mais ce n’est pas ce qu’il y a de plus difficile à concevoir. Et par ailleurs, les usages étant internes, les risques sont limités. »

Coûts, expérience utilisateur, qualité et changement clé pour l’industrialisation

Pour Hanan Ouazan, la cause de ce bilan 2024 est clairement identifiée : la complexité de l’industrialisation. Plusieurs paramètres l’expliquent, dont les coûts : les frais générés à l’utilisation peuvent rapidement grimper.

Or, les entreprises n’ont pas toutes anticipé le ROI de leur cas d’usage. La consommation de LLM occasionne des dépenses bien supérieures aux recettes – anticipées ou pas. Et même si les prix à l’usage de ces solutions ont très significativement diminué depuis un an, ils complexifient les applications et leur maintenabilité dans le temps.

À cette problématique des coûts, peuvent être apportées des réponses avec des « logiques d’optimisation », par exemple pour réduire la dépense associée à une conversation sur un chatbot. Une discussion est facturée en fonction de la taille de la question et de la réponse. Et toute nouvelle requête reprend l’historique de la conversation, augmentant le coût total à chaque prompt.

« Pour un client de l’industrie, nous monitorons chacune des interactions des chatbots. Cela nous permet de mesurer les coûts et les causes. Il peut s’agir, par exemple, de la difficulté du chatbot à identifier un produit, ce qui entraîne une multiplication des échanges. Le monitoring est essentiel pour cibler les correctifs ».

L’expérience utilisateur est également un paramètre critique. Pour la garantir, le temps de latence est important, mais celui-ci à un coût. Sur Azure, il pourra être nécessaire de souscrire des unités de débit provisionnées (PTU), « des ressources managées dédiées et coûteuses. »

Pas d’adoption réussie sans prise en compte de l’humain

Hanan Ouazan cite aussi la qualité comme enjeu de l’industrialisation. La mesurer et la monitorer supposent de « mettre en place les bonnes briques d’évaluation […] Sur certains parcours utilisateurs sensibles, nous déployons une IA dont la fonction est de valider la réponse d’une autre IA. Des processus d’évaluation en temps réel permettent ainsi de préserver la qualité des réponses de l’IA générative », explique-t-il. « Nous intégrons aussi des boucles de retour en exploitant les feed-back des utilisateurs pour améliorer les résultats. »

Enfin, l’industrialisation se heurte à un frein humain. Le succès de cette étape suppose en effet des changements de processus. La bascule d’un chatbot classique à une version à base d’IA générative, par exemple, change le métier au service client.

« Un tel changement doit être accompagné, en particulier sur le processus de validation des réponses du chatbot. Une partie des conversations peut être confiée en validation à une IA. Et lorsque l’humain intervient, il est préférable de l’assister pour réduire le temps de traitement. Et lorsque l’humain annote, l’IA doit apprendre pour enclencher un cercle vertueux. »

L’expert appelle aussi à accompagner les utilisateurs dans l’adoption et à soigner l’expérience utilisateur. « L’adoption ne doit pas se faire dans la douleur. » C’est donc la démarche mise en œuvre par Artefact sur un projet destiné à améliorer la qualité des données d’une base de produits pour un industriel. « Il ne faut pas que les individus s’adaptent à l’IA générative. C’est à elle de s’adapter à eux, en particulier leur manière de travailler ».

C’est ainsi que Artefact a repensé sa solution de génération de fiches produits, conçue au départ pour s’intégrer directement dans le PIM – outil peu apprécié des collaborateurs dans le projet cité.

« Notre méthode pour les projets d’IA générative consiste à sélectionner un métier et à identifier les tâches quotidiennes afin de distinguer celles pour lesquelles l’IA va remplacer l’humain ou modifier l’outil. L’enjeu consiste à automatiser ce qui est automatisable et pénible pour le métier, et à augmenter dans les conditions de travail de l’humain ce qui est augmentable. Et cela ne peut se faire sans interagir avec l’utilisateur cible. À défaut, l’adoption sera nulle. »

Formation des utilisateurs : un curseur à ajuster

Quid de la formation au prompt ? Pour Hanan Ouazan, tout est affaire d’utilisateur. Artefact forme les collaborateurs à la méthode CRAFT (Context, Role, Action, Format, Target Audience), qui définit le bon usage de l’IA. Pour des utilisateurs matures, il est possible de former au fonctionnement des modèles et des outils les intégrant. Certaines populations restent cependant habituées à l’usage de mots clés.

L’entreprise explique aux salariés la possibilité d’effectuer des requêtes en langage naturel. Elle a aussi mis en place de la reformulation. Lorsque des mots clés sont saisis (code puk), l’outil reformule : cherchez-vous à retrouver votre code puk ?

« Il y a un curseur et celui-ci doit être adapté en fonction de la population à laquelle se destine l’outil. Mais je pense qu’avec l’amélioration des capacités des solutions d’IA générative, il ne sera à terme plus nécessaire de prompter. »

Deux chantiers à venir

En 2024, deux chantiers principaux se mettent en œuvre dans le domaine de l’IA générative. Pour l’expert, le premier porte sur l’adoption, l’identification des évolutions des métiers, des carrières et des compétences.

Le second chantier est celui du passage à l’échelle. Celui-ci se pilote à deux niveaux : la gouvernance (priorisation des besoins, ROI et pilotage des initiatives) et la GenAI plateforme.

L’expert observe une multiplication des RAG, un phénomène tiré par les nombreux PoC menés. Il devient ainsi nécessaire pour différentes entreprises de rationaliser les briques déployées lors des expérimentations.

« Demain, il conviendra de traiter le RAG comme un Data Product. Le RAG as a Product a une place dans l’entreprise, comme le LLM as a Product. »

« Beaucoup ont pensé que la GenAI était quelque chose de magique qui permettait de s’affranchir des contraintes d’avant. En réalité, la GenAI apporte encore plus de contraintes », avertit Hanan Ouazan.

Cette évolution s’inscrit dans la continuité. Après le DevOps puis le MLOps, pour traiter spécifiquement l’IA, émerge à présent le LLMOps. « Les garde-fous définis avec le MLOps sont toujours d’actualité. Mais il faut en ajouter pour intégrer les coûts, les hallucinations et la dimension générative des modèles », conclut l’expert.

Pour approfondir sur Data Sciences, Machine Learning, Deep Learning, LLM

Close