Rokas - stock.adobe.com
Esker intègre ChatGPT (mais travaille sur ses LLM maison)
L’IA générative d’OpenAI va infuser les solutions du spécialiste lyonnais du Procure-to-Pay et de l’Order-to-Cash. Elle permettra dans un premier temps de compulser le contenu des messageries partagées pour améliorer les réponses aux clients.
Esker, spécialiste de l’O2C et du P2P a intégré ChatGPT, dans son AI maison Synergy AI.
Selon l’éditeur lyonnais, ChatGPT devrait aider les chargés de clientèle à traiter les requêtes quotidiennes des clients, comme les demandes de statut d’une commande, les demandes de prix et de disponibilité, ou les questions relatives aux produits.
« Avec la gestion d’une boîte de réception partagée par le service client, les demandes peuvent devenir assez complexes. Il arrive souvent que certaines passent entre les mailles du filet ou soient traitées trop tard, ce qui génère de l’insatisfaction client », explique Aurélien Coq, Chef de Produit Service Client chez Esker. Dans ce contexte, l’IA générative d’OpenAI infusée dans les outils d’Esker aidera à récupérer des informations précises, comme les données de commande, de tarification ou d’expédition, ainsi que l’historique des échanges à partir de différents systèmes (ERP, e-mail, CRM, chat), assure Esker.
« ChatGPT comprend les e-mails entrants des clients et interroge différents systèmes pour proposer une réponse argumentée que le conseiller clientèle valide avant envoi », continue Aurélien Coq. « Cette démarche est source de gains considérables de temps et de productivité [et] les clients obtiennent ce qu’ils attendent : une réponse pertinente et quasi immédiate ».
Les réponses suggérées par ChatGPT seront révisées et modifiées « si nécessaire » par les utilisateurs, avant d’être envoyées. « La supervision humaine garantit que les clients interagissent toujours avec des individus et non avec des machines. ChatGPT fournit simplement une assistance via des suggestions basées sur les données disponibles », insiste Esker.
Esker promet d’étendre l’utilisation de ChatGPT à d’autres solutions au sein de ses suites Source-to-Pay et Order-to-Cash.
Avec cette intégration, Esker s’inscrit dans la tendance générale des éditeurs d’applications métiers qui ajoute des fonctionnalités à base d’IA générative à leurs outils, que ce soit dans le collaboratif (Microsoft, Google, Slack, Box, Zoom, etc.), dans le CRM (Salesforce, Hubspot, etc.), dans l’ITSM (Zendesk), le case management (ServiceNow) ou l’ERP (SAP).
La stratégie d’Esker dans les LLM
Plus précisément, Esker utilise le service Azure OpenAI de Microsoft, « ce qui nous permet d’avoir accès aux fonctionnalités de ChatGPT avec les conditions de Microsoft Azure », explique Aurélien Coq au MagIT.
Ce choix doit assurer la confidentialité des données de ses clients, assure le responsable d’Esker : « Pour nos clients européens, nous utilisons l’instance européenne d’Azure OpenAI […] Et Microsoft s’engage à ne pas conserver et ne pas utiliser les données transmises à sa plateforme Azure pour améliorer le moteur d’IA », explique-t-il. « Les données sont uniquement utilisées à des fins de diagnostic, comme pour tous les autres services Microsoft Azure que nous utilisons déjà sur notre plateforme Esker on Demand ».
Aurélien CoqEsker
L’éditeur lyonnais ne ferme par ailleurs pas la porte à d’autres IA génératives. « Nous avons choisi ChatGPT, car c’est le meilleur modèle génératif que nous ayons évalué, en particulier dans la compréhension du langage naturel dit “free text” (c’est-à-dire, du texte non structuré). Mais cela peut évoluer », confie Aurélien Coq. « Nous ferons peut-être appel à d’autres prestataires ou nous utiliserons plutôt des réseaux développés en interne à l’avenir ». Esker a en effet déjà travaillé en interne sur des modèles répondant à des tâches spécifiques et a publié trois articles académiques avec le CNRS sur le sujet. « Un quatrième est en relecture », souligne Aurélien Coq.
La performance des modèles, leur sécurité et leurs impacts écologiques dicteront ce choix, continue le chef de produits Service Client chez Esker. Ainsi que la volonté de l’éditeur de rester indépendant sur des briques importantes de l’offre.
Aurélien CoqEsker
« Nous travaillons depuis plusieurs années sur le développement de LLM avec la technologie Transformers. Notre recherche s’articule principalement autour de modèles effectuant des tâches spécifiques, n’ayant pas besoin d’un réseau aussi important que ChatGPT et pour lesquelles des modèles spécialisés environ cent fois plus petits que ChatGPT peuvent donner de meilleurs résultats », conclut Aurélien Coq. « Concernant des tâches plus complexes comme la compréhension du langage “free text” ou la génération de texte, nous aimerions avoir notre propre LLM à l’avenir, par exemple en customisant un LLM open source à nos besoins spécifiques. ».
Des fonctionnalités payantes
Les fonctionnalités à base d’Azure OpenAI et de ChatGPT seront facturées en mode abonnement « tout-inclus » comprenant un volume donné de documents (demandes, commandes, réclamations) et des options spécifiques (fonctionnalités, Support étendu, accompagnement Customer expérience, etc.).
L’objectif est « de simplifier la facturation pour nos clients et qu’ils sachent à l’avance combien ils vont payer (par opposition à un modèle à la requête orienté sur des appels techniques plutôt que sur le bénéfice apporté) », dixit Aurélien Coq. Il justifie cependant ce surcoût par « la valeur additionnelle et l’amélioration du ROI des solutions » qu’apportent ces nouveautés.
Article initialement publié le 23 mai et mis à jour le 2 juin avec les parties « La stratégie d’Esker dans les LLM » et « Des fonctionnalités payantes »