dbrnjhrj - stock.adobe.com
La Société Générale investit dans l’IA générative
La banque indexe 10 millions de contenus. Cette base de connaissances, 110 000 utilisateurs l’explorent au travers de 15 millions de requêtes chaque année. Grâce aux avancées permises par les RAG et l’IA générative, Société Générale a fait évoluer ses services de recherche internes.
Les banques sont très actives sur le front de l’intelligence artificielle générative. Le Crédit Agricole a ainsi identifié 150 cas d’usage de l’IA générative. Sa filiale LCL a mis en production en mars son premier assistant à l’écriture d’email pour ses 12 000 conseillers.
Le Chief Data Officer du groupe BNP Paribas, Hugues Even, annonce quant à lui des tests en cours pour 100 cas d’usage. Ces pilotes se concentrent essentiellement sur des usages internes, pour des raisons de conformité principalement. La recherche interne figure en bonne position parmi les premières expérimentations dans le monde bancaire.
La recherche créatrice de valeur à condition de rendre l’information accessible
« Dans toutes nos entreprises, nous produisons énormément de connaissances, qui prennent leur valeur à condition d’être découvertes pour être consommées, c’est-à-dire répondre à des questions que les métiers se posent », témoigne Benoît Longin, IT Manager au sein du groupe Société Générale.
Apporter des solutions à « ce challenge » n’est pas une thématique nouvelle dans la banque. Elle y travaillait déjà « avant 2017, alors que les technologies étaient moins avancées ». Plusieurs services de recherche sont ainsi déployés en interne, sur les réseaux sociaux comme sur les bases de connaissances. Ces moteurs embarqués dans les applications fonctionnaient isolément.
L’entreprise a mené une première initiative visant à fusionner ces moteurs de recherche distincts dans l’optique de « proposer une expérience de recherche consolidée. » Cette démarche s’est concrétisée par la mise en place d’un portail de recherche agrégeant les moteurs embarqués dans ses différents outils.
En 2017, l’approche a évolué. Elle s’est traduite par la constitution d’une offre de recherche « mutualisée et centralisée ». À cette occasion, la banque a opéré un autre changement : l’indexation massive de contenus par la plateforme, au travers de connexions avec des sources de données multiples.
« Cela nous a permis de déployer un moteur transverse d’entreprise permettant à un collaborateur d’effectuer une recherche sur des sources diverses depuis un point central avec des résultats pondérés entre eux, indépendamment de leur source d’origine », détaille le cadre IT de Société Générale.
Une recherche mutualisée, mais aussi sécurisée et instanciée
Autre suite donnée à la création de l’offre de recherche et à sa centralisation : la multiplication des applications de recherche spécialisées. Une nécessité pour répondre aux besoins spécifiques (pondérations, corpus de données…) des différents métiers de la banque.
Benoît LonginIT Manager, groupe Société Générale
Depuis 2023 est initiée une nouvelle étape de transformation de la recherche interne. En son centre : l’apport de l’intelligence artificielle. Un an plus tard, cette évolution se poursuit pour proposer un parcours dédié de recherche exploitant l’IA générative.
« Au-delà de permettre l’amélioration de la pondération des résultats, l’IA générative fournit aux utilisateurs une synthèse de contenus, rendant possible l’exploration d’un très large corpus d’informations au format conversationnel », explique Benoît Longin.
La recherche d’entreprise est donc en mutation continue depuis maintenant de nombreuses années. La finalité de l’offre de recherche, elle, reste inchangée : se doter d’une « capacité transversale, instanciée très facilement, innovante, intuitive et sécurisée. »
La sécurité est en effet un paramètre critique pour un acteur réglementé. Les « contraintes » dans ce domaine sont « fortes » et se traduisent par des impératifs en matière de confidentialité et de droits d’accès aux contenus. L’offre de recherche répond en parallèle à des exigences de productivité et d’efficacité.
Sur un plan technique, la recherche chez Société Générale a aussi été conçue pour être instanciée. Ce choix d’architecture est clé pour fournir de la recherche sur mesure pour différents métiers. C’est aussi un facilitateur pour les équipes IT afin de prévenir le redéveloppement d’une capacité de recherche et la création de doublons technologiques.
LLM du marché et services d’IA générative connectés
Une plateforme qualifiée de « centralisée et mutualisée » doit être synonyme « d’économies d’échelle ». Et pour répondre à ces attendus, Société Générale a opté pour l’intégration d’un logiciel français du marché plutôt que pour du développement interne.
Les services de recherche totalisent 110 000 utilisateurs par an, « soit pratiquement l’ensemble des collaborateurs », pour 15 millions de requêtes annuelles, toutes applications de recherche confondues. Une quarantaine de sources de données, de tailles diverses, sont connectées avec le portail pour un peu moins de 10 millions de contenus indexés.
« Nous pourrions en indexer plus. Ce chiffre n’est pas défini par des limites technologiques. Nous ajustons le périmètre d’indexation en fonction des demandes », précise-t-il.
L’offre de recherche sert donc différentes applications : recherche sur le digital workplace et l’intranet, recherche dédiée pour les conseillers en agence, et aussi indexation de contenus externes (en particulier ceux produits par les régulateurs).
Avec le boom de l’IA générative, l’offre de Société Générale a commencé à exploiter des LLMs du marché. « Nous pourrions aussi aller vers des LLMs fine-tunés », annonce Benoît Longin. Un interfaçage avec des services de GenAI a été ajouté.
« Ces services sont en dehors de l’offre de recherche, mais nous sommes venus les intégrer et les mettre à profit dans le parcours de recherche pour l’augmenter. Ils sont produits par d’autres équipes, notamment en interne. » L’IA constitue cependant un complément aux technologies de recherche classiques, précise l’expert. « Les méthodes de pondération traditionnelles restent très pertinentes. L’IA ne les remplace pas. »
Barre de recherche, résultats issus des systèmes de pondération, cadre de prévisualisation des documents (de tous types), Société Générale met à disposition une interface de recherche « classique ». Depuis début 2024, cette interface se double d’une recherche dite « augmentée par l’IA. L’IA vient augmenter de nombreux parcours, dont celui-ci. »
Vers la recherche augmentée par de la GenAI maison
L’intégration de l’IA a conduit à une évolution de certains pans de l’interface. Ne sont plus affichés dans les résultats de recherche, des documents, mais des « extraits qui répondent à l’intention de l’utilisateur », exprimée sous la forme d’une requête en langage naturel.
Benoît LonginIT Manager, groupe Société Générale
L’outil procède en outre à une synthèse des 10 paragraphes pertinents vis-à-vis de la requête. Résultat : « tout de suite de l’information digeste. »
La prévisualisation de document est conservée. Elle s’affiche à droite de la page. Changement notable : la prévisualisation est focalisée sur l’extrait du document proposé à l’utilisateur. Cela représente une source de simplification pour des fichiers volumineux. « L’utilisateur dispose immédiatement de la donnée de référence et contextualisée. »
Pour permettre ces évolutions fonctionnelles, Société Générale a donc, comme indiqué précédemment, intégré des LLMs du marché. La prévisualisation est permise là encore par l’IA, au travers de modèles exploités par la plateforme de recherche de manière indépendante de la Gen AI.
L’IA intervient à différents niveaux dans « l’expérience de recherche augmentée » : compréhension de l’intention de l’utilisateur, extraction des passages pertinents via des modèles de Passage Ranking, surlignage des passages dans le corpus grâce à une autre typologie de modèles, et prévisualisation d’extraits.
Des assistants de recherche à maîtriser pour les collaborateurs
Pour fonctionner, la recherche augmentée fait aussi appel à un assistant conversationnel embarqué sur la partie gauche de la page. L’assistant « permet d’explorer de manière verticale l’information. »
Benoît LonginIT Manager, groupe Société Générale
L’utilisateur peut aussi interagir avec la recherche au travers d’un assistant « plein écran » comme sur un ChatGPT. La recherche conversationnelle fonctionne en conformité avec le système de permissions. Ainsi, les contenus proposés à l’utilisateur sont corrélés à ses droits.
Pour tenir compte de la problématique des hallucinations, le mode conversationnel a été conçu pour citer les documents sources. En cas de doute sur la réponse fournie par la machine, le collaborateur peut facilement accéder aux références et contrôler l’information générée.
« Technologiquement, nous parvenons à des résultats très pertinents. Le challenge à présent, c’est de rendre la recherche augmentée accessible au plus grand nombre, c’est-à-dire d’accompagner les collaborateurs pour qu’ils parviennent à manipuler ses capacités le plus efficacement possible », prévient Benoît Longin.
« L’accompagnement au changement est clé. Même si ces outils se développent auprès du grand public, tous n’y sont pas familiarisés dans le monde de l’entreprise », conclut-il.