Salesforce pousse Data Cloud et Einstein Copilot aux clients français
Si elles n’ont pas attendu Salesforce pour mener leur projet d’unification de données et d’IA générative, les entreprises françaises cherchent à rationaliser les premiers déploiements. Le géant du CRM croit pouvoir les aider avec l’aide de ses outils et de ses partenaires en provenance du monde de l’open source.
Lors de son World Tour Paris au Parc Expo Porte de Versailles (entre 8 et 10 000 participants), Salesforce a rejoué les grands actes de son événement Dreamforce 2023 autour de Data Cloud, renommé Einstein 1 Data Cloud, et de l’IA générative pour ses clients français.
Depuis, le géant du CRM a mené son événement Trailblazer DX, sa conférence de développeurs qui s’est terminé la semaine dernière. L’occasion pour les équipes françaises d’intégrer dans leur présentation les éléments présentés à San Francisco.
Du point de vue d’Einstein 1 Data Cloud, l’éditeur l’a rendu disponible dans toutes les régions cloud, a revu son connecteur Google Cloud Storage, lui permet d’écrire et d’exécuter des requêtes SQL, de partager les données avec des comptes Snowflake en dehors d’AWS (sur GCP et Azure), et de le faire également avec BigQuery en « presque temps réel » « sans répliquer les données ». S’en suit une liste de fonctions de segmentation en lien avec différents outils, dont Tableau, Google DV360, LinkedIn ou encore Snapchat.
Les débuts de Data Cloud
La CDP infusée dans l’ensemble de la plateforme Salesforce repose sur Hyperforce, l’infrastructure cloud annoncée en 2020. Comme les clients migrent progressivement vers cette nouvelle architecture multicloud, le géant du CRM tente de les convaincre que sa couche de métadonnées améliorées permet de réunir les données en provenance de différentes « orgs », des environnements de travail contenant les données, les applications et les paramètres de configuration associés. L’idée, comme l’a illustré l’éditeur dans une démonstration « visionnaire » (donc en partie fictive) pour le compte d’Air France-KLM, est d’enrichir les données des profils clients pour rendre enfin tangible la notion de « Customer 360 », que le géant du CRM promet de longue date.
Or, en France, environ 50 % des clients ont migré vers l’infrastructure Hyperforce, soit plus de 200 000 orgs depuis son lancement dans l’hexagone en 2022. Une opération somme toute transparente pour les clients à qui Salesforce demanderait seulement d’effectuer des tests de non-régression. Pour l’heure, la grande majorité des opérations se serait bien déroulée, selon les porte-parole du groupe.
Le nombre de clients français qui exploitent Einstein 1 Data Cloud est donc réduit. De manière plus générale, Kheira Boulilha, Senior Vice-President, Solution Engineering EMEA-France chez Salesforce, reconnaît que les déploiements de la CDP infusée dans le CRM en sont à leurs débuts. Des débuts prometteurs, considère la responsable. Lors d’un point presse en amont du World Tour Paris, Lepape, une enseigne multisport spécialisée dans le cyclisme et le running, a présenté ses usages du Data Cloud et les premiers bénéfices.
De son côté, Feyyaz Younas, EVP & Chief Growth Officer, Data Cloud chez Salesforce, précise que, selon le cas d’usage, un premier déploiement de Data Cloud peut prendre de deux à dix semaines. « Oui, nous avons facilité les choses pour les sources courantes, mais il faut tout de même un certain temps pour obtenir les bonnes données sous la bonne forme et le bon modèle de données afin d’activer votre vision à 360 degrés des clients », tempère-t-il, auprès du MagIT.
Feyyaz YounasEVP & Chief Growth Officer, Data Cloud, Salesforce
« Ce qui est difficile, c’est de comprendre ce que le client essaie de résoudre et la manière d’utiliser la technologie dans ce cadre », ajoute-t-il. « C’est du temps qui s’accumule parce que fondamentalement la technologie est en situation pour fonctionner, et une fois que vous avez les données en place, vous pouvez activer de multiples cas d’usage ».
Le principal intérêt, selon les porte-parole de Salesforce, serait de propulser les cas d’usage liés à l’hyperpersonnalisation de la relation client, une tendance importante, glisse Emilie Sidiqian, directrice générale de Salesforce France auprès du MagIT. Pour l’heure, les premiers clients ont connecté des « informations » en provenance de deux à trois « clouds », par exemple pour unifier les informations présentes dans Marketing, Service et Sales Cloud.
Les forces vives de l’éditeur sont toutefois en cours de formation. Près de la moitié des solutions engineers sous la direction de Kheira Boulilha, soit une centaine de collaborateurs, se seraient formés à Data Cloud et ont obtenu une certification de premier niveau. Les partenaires intégrateurs seraient, eux aussi, en train d’apprendre les rouages de la plateforme de données.
IA générative : Salesforce se positionne au regard des POCs de ses clients
Salesforce et son écosystème se préparent également au déploiement d’Einstein 1 Copilot et la suite de développement « low-code/pro-code » associée (Einstein 1 Studio). Il s’agit là de la vision de l’IA générative par Salesforce. Deux des trois services d’Einstein 1 Copilot sont entrés en disponibilité générale, tandis qu’une trentaine de fonctionnalités infusent progressivement les différents produits de l’éditeur. La prise en charge du français est prévue pour la sortie de la mise à jour Summer’ 24 de la plateforme Salesforce, soit aux environs de juillet prochain.
Les clients français et d’autres n’ont pas attendu Salesforce pour exploiter les LLM. Après de nombreux POCs, ils ont pu observer de premiers bénéfices. Lors d’un test, le groupe d’intérim Adecco a déployé un système permettant à ses agences de réécrire ou de générer des annonces liées à des offres d’emploi à l’aide d’un LLM. Pierre Matuchet, SVP Digital Transformation chez le groupe Adecco, a observé un taux d’adoption record. Environ 45 % des annonces étaient générées par le système d’IA générative un mois après son déploiement. Habituellement, il faut lutter pour qu’un nouveau logiciel soit utilisé par 10 % des collaborateurs, rappelle-t-il.
La chaîne hôtelière Accor, elle, a mis en place des systèmes d’IA et d’IA générative au sein de sa plateforme de gestion des campagnes marketing. « Nous utilisons des services de segmentation des populations de clients, d’identification des bons horaires d’envoi ou encore de l’IA générative pour générer les contenus des mails », explique Alix Boulnois, directrice générale Digital chez Accor. « En un an, les revenus liés à nos campagnes d’emailing marketing ont crû de 237 % pour un nombre équivalent de mails envoyés ».
Ce deuxième cas démontre qu’il faut envisager la combinaison d’une solution comme Data Cloud, renfermant la connaissance sur les clients, des algorithmes d’IA prédictive, des moteurs de règles et des grands modèles de langage. Donc, ces bons résultats cachent la nécessité de rationaliser les déploiements des LLMs.
Vers une multiplication de petits grands modèles de langage spécialisés
« Si je me mets à la place d’un dirigeant, j’ai besoin de prendre un modèle plus petit, donc moins coûteux, mais qui connaît mon métier et qui est capable de s’appuyer sur ma connaissance, donc mes données, pour pouvoir répondre à la question que le client a posée, qui elle aussi est très précise », estime Bassem Asseh, responsable des ventes chez Hugging Face. « Il est donc question de la taille du modèle. Il n’y a pas besoin d’un bazooka pour abattre une mouche ».
Bassem AssehHead of Sales, Hugging Face
Sa présence sur place, comme celle d’Arthur Mensh, cofondateur et CEO de Mistral AI, visait en partie à convaincre les entreprises qu’elles peuvent se tourner vers les modèles « open weight » (Hugging Face héberge plus de 544 000 modèles IA et ML) ou plus petits, plus spécialisés. Cela tombe bien, avec Einstein 1 Copilot, le géant du CRM soutient une approche « Bring Your Own Model », même si, pour l’heure, il utilise principalement les modèles d’OpenAI, dont GPT-4 et GPT-3.5-Turbo.
Au lancement d’Einstein 1 Copilot (dont le nom n’avait pas encore été trouvé), Salesforce défendait le fait que ses clients voudraient du choix au moment de déployer de grands modèles de langage. Au lieu d’utiliser GPT-4 pour tout faire, les spécialistes et les entreprises dirigent leurs clients vers une multitude de modèles capables d’accomplir des tâches spécifiques (résumés, génération de documents spécifiques, etc.). « Il y a un équilibre à trouver entre performance, qualité et coût », résume Bassem Asseh.
Un effort de construction qui prendra du temps, selon Pierre Matuchet du groupe Adecco. « Nous n’allons pas construire immédiatement une cathédrale “multi-LLM” », indique-t-il. « Nous allons commencer par édifier des chapelles, représentant des cas d’usage simples, avec des modèles moins chers, plutôt que d’adopter un modèle rapide avec un haut niveau de précision », ajoute-t-il. « Si nous avons besoin d’un niveau de qualité supérieure, nous bâtirons une autre chapelle. Mais nous éviterons de les construire aux quatre coins de la ville, pour que demain, toutes ces chapelles deviennent les fondations d’une cathédrale. Nous ne connaissons pas la fin du chemin, mais nous considérons qu’il ne faut pas partir dans trop de directions différentes et essayer [de les faire] converger progressivement », conclut-il.