kirill_makarov - stock.adobe.com
La Stratégie de Cegid dans l’IA générative
Que réserve Cegid à ses clients dans la GenAI ? Son directeur des produits et de la R&D détaille les fonctionnalités que l’éditeur lyonnais a sorties en 2024, et dévoile en avant-première celles à venir en 2025. Une plongée dans les coulisses d’un chantier au long cours, dont les options et les enseignements technologiques peuvent inspirer toutes les entreprises qui ont des projets d’IA générative, quel que soit leur secteur.
Entretien – L’intelligence artificielle générative est au cœur de l’évolution des produits de Cegid. Mais comment le géant français du logiciel d’origine lyonnaise fait-il pour l’intégrer ? Avec quelles technologies ? Dans quels cas d’usage ?
André Brunetière, son chief product and innovation officer, répond à toutes ces questions dans cet entretien où il aborde également la question de l’indépendance vis-à-vis des fournisseurs de LLM. Une problématique qui recoupe celle de la relation aux prestataires de cloud.
Pulse, la marque ombrelle de Cegid dans la GenAI
Quelles ont été les grandes évolutions technologiques au sein des produits de Cegid en 2024 ?
André Brunetière : Dans les grandes tendances, nous avons fait le pari de l’adoption accélérée de l’IA générative, dès mi 2023.
Sur la fin 2023 et jusqu’au printemps 2024, nous avons beaucoup travaillé – avec des méthodes à la Silicon Valley, des design sprints, etc. – pour créer de la valeur avec l’IA générative dans nos offres. Nous sommes « sortis du bois » avant l’été, en juin 2024, en lançant Cegid Pulse.
Cegid Pulse n’est pas un produit en soi, c’est un accès à l’IA générative embarquée dans nos produits. Maintenant, dans nos écrans, il y a un petit bouton Pulse qui, ouvre de nouvelles fonctions liées à la GenAI. Je dirais que c’est le fait majeur dans notre actualité produit sur 2024.
Que fait Cegid Pulse concrètement ?
André Brunetière : C’est un bouton « évolutif ». Au mois de juin, nous avons lancé les premières expériences. Au fil du temps, il y en a de plus en plus pour différents personas (des profils d’utilisateurs suivant nos produits) et avec des cas d’usage de plus en plus avancés.
Nous avons particulièrement travaillé sur des cas où il y a plusieurs étapes entre la compréhension du langage par un modèle et la restitution d’une réponse par ce même modèle. En résumé des cas où nous exprimons une demande en langage naturel, et que cette demande crée des process d’exécution dans nos produits. La GenAI génère alors aussi bien du langage humain que des instructions pour un produit logiciel. Et à la fin, elle synthétise les résultats de ces séquences d’exécution.
Pour vous donner quelques exemples, dans un produit de gestion, on va pouvoir dire « Peux-tu écrire une lettre à tous mes clients qui ne m’ont pas payé depuis plus de 30 jours ? Prends un ton aimable avec ceux de plus de 30 jours et un ton plus agressif avec ceux de plus de 60 jours ».
Derrière, il y a des requêtes qui identifient ces éléments, qui séparent les deux catégories, qui génèrent deux courriers, qui les associent aux différents clients et aux facteurs correspondants. Et tout ça, de façon invisible pour l’utilisateur. C’est de l’IA agentique.
Allez-vous déployer cette IA générative et ces agents dans toute votre gamme ?
André Brunetière : Nous avons commencé à le faire sur les produits du bas du marché, les plus simples. Pour une raison simple. Ce sont ceux qui n’ont pas de fonction de recouvrement intégré, par exemple.
Dans le haut du marché, c’est moins intéressant, parce que les utilisateurs sont beaucoup plus rompus à ces techniques. Ce serait donc plus un aspect gadget, un effet « whaou », mais sans forcément créer de la valeur. Alors que quand on n’a jamais fait de recouvrement, ou qu’on le fait rarement, ce type d’outil est beaucoup plus intéressant.
Des cas d’usage pour une IA agentique
Est-ce à dire que vous n’allez pas mettre de GenAI dans vos produits pour le haut du marché ?
André Brunetière : Si si, bien sûr. Il y a deux domaines où nous sommes en train de sortir des nouveautés.
André BrunetièreCegid
Le premier, c’est sur notre suite RH, Cegid HR qui regroupe Talentsoft, Digital Recruiter et Wittyfit. Nous avons sorti un assistant pour les entretiens annuels avec un ensemble de fonctions afin de faciliter sa préparation – notamment pour ceux qui ne sont pas à l’aise avec l’écrit. On peut parler et dire comment s’est passé l’année. L’utilisateur « raconte » ce qu’il a à dire et notre outil synthétise cela avec des points principaux.
L’agent peut aussi le traduire dans une autre langue, si le manager et le managé ne parlent pas la même langue, ou alerter sur des propos inappropriés (racistes, sexistes, etc.).
Et un petit peu plus avancées technologiquement, des fonctionnalités utilisent la technique du RAG. Quand on formule ses objectifs, l’IA générative analyse la cohérence avec ceux de l’entreprise – qu’on a alimentés par ailleurs. De cette manière, si un objectif individuel va à l’encontre des objectifs de l’entreprise, l’outil prévient l’utilisateur.
La GenAI dans Cegid RH sera disponible pour 2025 ?
André Brunetière : C’est en pilotage chez une demi-douzaine de clients grands comptes. Ils sont très intéressés. Ils veulent le déployer à toutes leurs équipes pour leur campagne de début d’année. C’est aussi une manière pour nous d’enrichir l’outil petit à petit avec leurs retours.
Vous parliez de deux domaines pour l’IA générative dans vos offres grands comptes. Il y a donc les RH. Quel va être le second ?
André Brunetière : C’est tout ce que l’on fait pour les produits de paie. L’IA générative peut faciliter le travail de préparation : tout ce qui est récupération d’éléments qui impacteront le bulletin de salaire (les absences, les congés, les heures sup, les demandes de primes, etc.).
C’est une approche qui est aussi multicanal. Soit l’employé discute avec un chatbot (« j’ai eu un arrêt maladie », et il envoie juste une copie de l’arrêt maladie), puis notre outil s’occupe de tout processer, de rentrer ça dans le bulletin de paie. Soit il peut l’envoyer par mail directement au robot de traitement.
Dans les deux cas, l’idée est qu’à la fin du mois, quand le chargé de paie doit produire les bulletins, on lui a prémâché tout le travail sur les éléments particuliers.
C’est encore une logique « agentique ». Quand on scanne un arrêt maladie, l’outil l’interprète et va mettre à jour les informations dans le profil du salarié du mois (ses jours de présence, jours d’absence), puis il vérifie ce qui est autorisé, il rentre dans un système de subrogation avec la mutuelle, etc.
Les prochaines étapes que nous visons, c’est la production automatique du bulletin et son contrôle automatique par des outils d’IA, que ce soit le bulletin et la déclaration sociale nominative derrière. Nous n’y sommes pas encore, mais c’est l’objectif.
Dans ce type d’exemple, vous « mixez » des IA, ce n’est pas que de la GenAI ?
André Brunetière : Non, ce sera un mélange de trois choses : de moteur de règles puisque ça fonctionne encore très bien (sourire), de machine learning « classique », et sur certains aspects d’IA générative.
Ces fonctionnalités à base d’IA générative viennent-elles de demandes de vos clients ? On voit certains gros éditeurs sortir des « assistants », puis des clients qui essaient de trouver de vrais cas d’applications qui créeraient de la valeur. Qu’en est-il chez Cegid ?
André Brunetière : Déjà, nous faisons le même constat. Par exemple sur la génération de code, on voit que l’IA générative est très utile sur des opérations ponctuelles, rares dans le temps. Pour écrire du code qu’on fait tous les jours, on prend autant de temps à vérifier le code qui a été généré que si on l’avait écrit soi-même. En revanche, quand on a quelque chose d’un petit peu compliqué à faire, ces outils font gagner beaucoup de temps.
C’est la même chose dans nos produits. L’IA générative peut créer une interaction intéressante dans des situations où on ne se souvient pas des règles ou de l’usage du produit.
Donc, chez Cegid, pour l’instant, nous regardons surtout ces tâches occasionnelles, pour aider l’utilisateur à faire des choses avec nos outils où il ne sait pas vraiment comment s’y prendre.
Des questions stratégiques sur le modèle économique
L’approche que vous venez de décrire amène quelques questions stratégiques. La première : comment facturez-vous une IA qui vise des usages « ponctuels » ? Et la faites-vous payer ?
André Brunetière : Nous sommes encore en phase itérative. Pour l’instant nous faisons payer la valeur que cela apporte [via un supplément sur l’abonnement] avec un maximum d’usage compris dans ce prix. Ensuite, si jamais il y a une très forte utilisation qui fait dépasser ce maximum, nous facturons à l’usage supplémentaire. L’idée n’est pas de faire payer plus à nos clients, mais de ne pas être pénalisé s’il y a des utilisateurs très intensifs.
Mais ce coût additionnel est à mettre en face d’une vraie valeur. Et il y a bien évidemment une période d’essai.
Dernier point, sur l’acquisition de nouveaux clients, le prix de l’IA générative est intégré dans le produit de base – et pareil, il n’y aura que le paiement des dépassements de volume.
Deuxième question stratégique : la R&D en IA générative a un coût élevé. Elle demande beaucoup d’investissements et pourrait ne pas procurer d’avantage concurrentiel pérenne (comme le rappelle Numeum dans un récent rapport). Comment abordez-vous ce double défi chez Cegid ?
André Brunetière : Premier point, je pense que c’est un investissement qui va, probablement, au fil du temps, se substituer à l’investissement de production de code. De plus en plus, on verra des gens qui créent de la valeur avec des features d’une nouvelle nature qui fonctionnent beaucoup sur de l’IA générative ou de l’IA agentique, et moins de gens qui développent des choses avec l’approche habituelle.
André BrunetièreCegid
C’est lié au fait que, finalement, on va créer de plus en plus d’expérience additionnelle que du process additionnel (la maîtrise des process de gestion de l’entreprise dans nos produits étant déjà quelque chose d’acquis).
Maintenant, sur votre second point, pour se différencier des autres éditeurs, c’est là où l’IA agentique est essentielle. Le fondement de l’IA agentique ce sont les process qu’on a créés dans nos produits. C’est-à-dire qu’on couple le patrimoine de propriété intellectuelle de nos produits et la logique de fonctionnement qu’on y a créée au fil du temps avec l’IA générative. C’est le mix des deux qui donne une originalité.
Effectivement, si on se contente de prendre les données et de faire des commentaires sur ces données, ce n’est pas très différenciateur.
Une des implications de l’IA agentique pourrait être un changement radical de modèle économique avec une facturation à la conversation. Est-ce une approche que vous étudiez ?
André Brunetière : On regarde. Mais nous sommes assez réticents sur un point. Le même que sur le cloud à l’époque. Ce que nous vendons, c’est une valeur pour le client. Pas le coût nécessaire pour délivrer cette valeur. Donc, je pense qu’on restera dans cette logique dans l’IA générative.
Déjà, un, cela nous oblige à démontrer la valeur. Et deux, dans les grandes entreprises, l’imprédictibilité du coût d’un système est une barrière énorme. Dire : « vous allez payer en plus chaque fois que quelqu’un de chez vous l’utilisera », c’est anxiogène pour la maîtrise du budget IT.
Comme je vous le disais, l’approche de Cegid est plutôt sur une mode de forfaitisation plafonnée. Avec des outils de monitoring pour suivre et contrôler l’usage.
L’indépendance vis-à-vis des fournisseurs de LLM
Troisième question stratégique : comment assurez-vous votre indépendance par rapport aux fournisseurs d’IA générative ? Pour compléter cette question, vous aviez souligné lors d’un précédent échange sur l’IA « classique » que vous vous appuyiez sur des services clefs en main pour le « tout venant » et que vous développiez en interne pour tout ce qui touche au cœur de vos produits. Avez-vous la même approche dans la GenAI ?
André Brunetière : Sur l’IA classique, effectivement, on reste sur cette idée. Sur les modèles de ML, pour tout ce qui est basique (et de moins en moins cher) évidemment, on externalise. Par exemple, pour la reconnaissance de texte dans les documents, il n’y a pas d’intérêt à le faire nous-mêmes.
André BrunetièreCegid
En revanche, on développe la couche au-dessus. Une fois que le texte est reconnu, comment le transforme-t-on en écritures comptables ? Et comment on l’affecte au bon compte ? Là, ce sont nos propres outils de machine learning.
Pour être encore plus précis, on utilise les technologies de ML présentes sur le marché, mais ce sont nos propres apprentissages qui ont créé nos algorithmes sur la base de ces outils-là.
Pour l’IA générative, notre approche est d’utiliser un peu tout ce qui existe : OpenAI, Claude (Anthropic), Mistral, etc. On compare la pertinence de la réponse, le coût, le temps de réaction aussi… quelquefois on peut attendre 15 ou 20 secondes la réponse à un prompt, ce qui détruit un peu l’expérience.
Ce que nous faisons de notre côté, c’est tout ce qui est fine-tuning, RAG, etc. Mais nous n’en sommes pas à une technologie propriétaire. On complète les sets de données des modèles.
Nous n’imaginons pas aujourd’hui – mais je dis bien « aujourd’hui » – créer nos propres LLM. D’abord parce que « large », pour nous, par rapport au « large » des « LLM », ce n’est pas du tout la même échelle. Notre domaine, c’est la gestion. Nous n’avons pas besoin de toute la connaissance du monde pour faire de la gestion.
Mais on peut penser que des modèles plus petits, plus simples, plus restreints vont arriver. Quand ils seront là, nous nous reposerons certainement la question de ce qu’il faut pour créer certains modèles qui nous seraient propres. Donc ça viendra peut-être un jour.
Pour bien comprendre votre architecture, vous vous reposez sur des API pour utiliser des services comme ceux d’OpenAI et d’Anthropic, et vous utilisez aussi des algorithmes open source pour les fine-tuner chez vous. Vous utilisez les deux.
André Brunetière : Oui. Et nous regardons aussi des outils au-dessus de ces LLM comme AutoGen – qui est dans la stack que propose Microsoft – pour aller plus vite.
Quoi qu’il en soit, nous considérons qu’il est trop tôt pour prendre des options définitives.
L’empreinte écologique de l’IA générative
Votre R&D est-elle aujourd’hui entièrement consacrée à l’IA générative ?
André Brunetière : Non, il y a encore d’autres choses à faire dans nos produits (sourire). Nous avons créé un centre d’expertise sur l’IA et la donnée au Portugal, où travaillent environ 90 personnes aujourd’hui. C’est 7 à 8 % de notre R&D. Fin 2025, nous nous rapprocherons des 200. Ce sera un peu plus de 15 % en effectif. Mais oui, nous irons de plus en plus fort de ce côté-là.
Vous préoccupez-vous de l’empreinte carbone de l’IA générative ? Et si oui, comment faites-vous pour la réduire ?
André BrunetièreCegid
André Brunetière : Quand bien même seriez-vous le plus climatosceptique du monde, il vous faudrait la prendre en compte parce qu’il y a une relation très linéaire avec le coût. Donc forcément, par effet rebond, si on s’intéresse au coût, on s’intéresse à l’empreinte carbone.
Et en plus, oui, l’empreinte carbone est un sujet qu’on regarde de près.
Surtout que nous faisons un constat. Quand on est en phase « lab », on est à des niveaux de consommation relativement faibles. Mais quand on déploie à l’échelle, c’est autre chose.
C’est aussi pour cela que nous nous intéressons à ces futurs modèles qui travailleront sur des jeux de données plus restreints, parce qu’ils auront aussi des consommations plus faibles. Et c’est aussi pour cela qu’on va vers de l’IA agentique – avec des usages à plus forte valeur qui justifient cette équation économique et écologique.
Le cloud
Le cloud est l’autre grand pan de votre évolution technologique. Pouvez-vous préciser votre approche multicloud ? Que mettez-vous sur Kyndryl (ex-IBM Cloud), sur les hyperscalers et chez OVH (puisque vous travaillez aussi avec OVH) ?
André Brunetière : Sur Kyndryl, on retrouve tout ce qui a participé aux prémices de notre SaaS, c’est-à-dire un certain nombre de produits qui étaient nés dans le monde du on-premise et qu’on a adaptés pour passer au SaaS. Ceux-là restent dans l’univers Kyndryl.
Sur les hyperscalers – que ce soit Azure, AWS ou GCP –, nous construisons l’avenir. On y trouve les produits sur lesquels on capitalise pour le futur.
Et nous utilisons OVH quand nos clients ont des prérequis de souveraineté.
Vous dîtes « Azure, AWS ou GCP ». Est-ce à dire que vous êtes indépendant d’une plateforme en particulier grâce à une approche agnostique du cloud, en pur IaaS, sans trop reposer sur des services PaaS ?
André Brunetière : Absolument. Il y a un moment, tout le monde disait que l’avenir était dans le PaaS.
André BrunetièreCegid
Mais on voit bien que, depuis deux ans, il y a de l’inflation dans les prix. Les discussions avec les fournisseurs cloud deviennent un peu plus tendues. Surtout avec ceux qu’on a depuis longtemps. Donc la portabilité d’une plateforme à l’autre est très intéressante.
Mais quand on dit portabilité, attention ! Il faut aussi être réaliste.
Cela reste des chantiers de transformation qui ne se font pas du jour au lendemain. On essaie de travailler nos produits pour que cela soit possible. Mais on ne se lève pas un matin en se disant que c’est une chose qu’on va faire dans la journée.
Et je précise aussi qu’une application Cegid est sur un cloud (AWS, Azure, GCP), pas sur plusieurs à la fois. Le seul deuxième cloud que nous utilisons en simultané est OVH dans les options souveraines.
Puisque nous évoquons OVH : on entend souvent que ce cloud européen ne serait pas mûr pour rivaliser avec les hyperscalers. À l’inverse, d’autres disent qu’OVH a tout ce qu’il faut dans les services essentiels. Ce n’est pas aussi riche qu’un AWS, mais pour les fonctionnalités « core », sa gamme suffirait. Quelle est votre opinion ?
André Brunetière : C’est sûr que l’actualité technologique chez les trois hyperscalers nous encourage toujours à aller vers eux quand on veut essayer des choses.
Maintenant, sur des solutions établies, et notamment quand on a ces exigences de souveraineté, les trois gros ne sont pas clairs. Certes, il y a Bleu et S3nse. Mais est-ce que ça l’est vraiment ? On n’arrive pas à savoir.
Donc, avoir un partenaire comme OVH, avec des solutions qui sont éprouvées, qui est robuste, qui est conforme, et qui a une équation de coût très raisonnable, c’est très intéressant. En tout cas il n’y a pas de blocage technique qui nous empêcherait de mettre des applications sur OVH.