Feuille de route : Tableau refait le point pour ses clients français

Lors de Tableau Conference 2024, les porte-parole de l’éditeur filiale de Salesforce ont fortement mis l’accent sur ses fonctions d’IA générative. Le Tableau Summit parisien était l’occasion d’effectuer une piqûre de rappel aux clients français, mais aussi de détailler les autres fonctionnalités sur la feuille de route de l’éditeur.

Ainsi, l’équipe française a présenté, de nouveau, Tableau Pulse en disponibilité générale depuis le mois de février 2024. Cet outil combine BI, machine learning et IA générative pour avertir les usagers de changement de métriques.

Les différences entre Tableau Pulse et Einstein Copilot for Tableau

Auprès du MagIT, Stéphanie Pussiau, SAVP et directrice générale de Tableau en France, depuis mars 2024, explique qu’il faut bien distinguer Tableau Pulse, et l’autre outil infusé à l’IA générative Einstein Copilot for Tableau. Tableau Pulse est concentré sur les opérations et doit simplifier l’expérience des consommateurs de KPI (viewers). Il permet de distribuer auprès des métiers des indicateurs clés triés sur le volet et les informer de leur évolution, en sus de les expliquer en langage naturel.

« [Tableau Pulse] permet de distribuer les KPI auprès des métiers à travers les canaux de leurs choix. »
Stéphanie PussiauSAVP et directrice générale de Tableau en France

La directrice France perçoit un taux d’adoption « proche des 100 % » de Tableau Pulse, qu’elle détecte déjà en interne. « Cela permet de distribuer les KPI auprès des métiers à travers les canaux de leurs choix. Ils n’ont plus besoin de chercher à plusieurs des tableaux de bord ou de demander aux analystes de leur remonter la bonne information », explique-t-elle.

Einstein Tableau for Copilot, lui, cible en premier lieu les analystes. Le module attenant à Tableau permet d’explorer des données en langage naturel et de produire des visualisations – une fonctionnalité qui cible en premier lieu les nouveaux venus sur Tableau –, ou encore d’aider à préparer des jeux de données et à configurer des algorithmes consacrés à différentes analyses.

Lors d’une démonstration, Fabien Van Schuerbeek – solution engineer chez Tableau – a montré qu’il était possible non seulement d’obtenir des conseils pour un cas d’usage d’analyse des sentiments, mais également d’exécuter (après vérification) les processus proposés par l’assistant, dans Tableau Prep. « Il n’y a pas besoin de connaître beaucoup Tableau Prep. Et l’assistant fait une bonne partie du travail, mais ne remplace pas l’analyste : il reste encore beaucoup à faire en matière de mise en qualité et de préparation de données », avance Fabien Van Schuerbeek.

Enfin, une fonctionnalité permet de générer des descriptions pour les sources, les classeurs et les tables dans Tableau. La plupart de ces fonctionnalités sont en bêta, disponibles « à la fin de l’été 2024 ». Le support complet du français devrait être disponible avant la fin de l’année.

Des analyses visuelles plus détaillées

Mais il y a d’autres fonctionnalités, peut-être plus pertinentes pour les utilisateurs avancés de la suite BI. À commencer par Viz Extensions disponible depuis Tableau 2024.2.

« Il s’agit d’accéder à une riche galerie de visualisation créée par la communauté, directement dans Tableau », résume Manuela Suarez, Solution Engineer chez Tableau Salesforce. « Ces visualisations sont accompagnées d’instructions pour les utiliser simplement. Non seulement l’on va gagner énormément de temps, mais l’on va proposer des visuels beaucoup plus complexes pour permettre de répondre à des questions plus poussées ».

L’ingénieure avant-vente a également mis en avant le travail d’un partenaire de Tableau, Ladataviz. Ce cabinet a conçu un plug-in pour importer des designs de tableaux de bord créés avec Figma dans Tableau.

« Tableau va géocoder les champs d’adresse. »
Manuela SuarezSolution Engineer, Tableau Salesforce

Par ailleurs, Tableau entend étendre ses capacités d’analyse géospatiale. « Tableau va géocoder les champs d’adresse », annonce Manuela Suarez. Auparavant, la suite prenait en charge les pays, les villes, les régions et une partie des codes postaux, mais il fallait la latitude et la longitude pour descendre à la maille de l’adresse. Autre ajout, « il sera possible de ramener des calculs de distances complexes dans les analyses, à travers des buffers », ajoute-t-elle.

Cela permet, par exemple, de prédire des trajets, évaluer le potentiel d’un point de vente par rapport à la circulation ou encore optimiser des campagnes marketing par courrier, illustre la solution engineer.

Dans cette même optique de rendre la solution plus performante, Tableau prend mieux en charge le modèle de données multifactoriel depuis la version 2024.2.

« Nous pouvons traiter maintenant dans Tableau des cas d’usage beaucoup plus complexes avec de multiples tables de faits, avec de multiples dimensions, ce qui va nous permettre d’apporter beaucoup plus de flexibilité et d’autonomie aux data analysts, quant à la modélisation dont ils ont besoin pour pouvoir faire les indicateurs de leur dashboard », assure Fabien Van Schuerbeek.

Auparavant, la suite ne supportait qu’une seule table de fait. Il est désormais possible de relier plusieurs tables, tant qu’elles ont une dimension commune. Par exemple, il peut s’agir de rapprocher les chiffres de vente d’un produit météo sensible (des glaces) avec des données météorologiques sur une période exacte.

Une métacouche sémantique en préparation

« L’objectif, c’est de proposer une couche sémantique composable », indique Fabien Van Schuerbeek. « Aujourd’hui, lorsque l’on publie une source de données sur Tableau Cloud ou Tableau Server, l’on ne peut pas la réutiliser ou effectuer des jointures avec d’autres sources de données publiées. C’est ce que va permettre cette fonctionnalité ».

« In fine, nous voulons intégrer notre couche sémantique avec des couches sémantiques externes. »
Fabien Van SchuerbeekSolution Engineer, Tableau

Au-delà de réutiliser des analyses effectuées dans Tableau, il sera possible de connecter d’autres sources de données et de réaliser des jointures, par exemple.

« In fine, nous voulons intégrer notre couche sémantique avec des couches sémantiques externes », poursuit l’ingénieur avant-vente. « De nombreux clients disposent de systèmes ERP, lesquels gèrent des données spécifiques. Ces ERP peuvent intégrer une couche sémantique mise en œuvre par une autre infrastructure. Ainsi, il sera possible de combiner des données, telles que celles des ventes ou du marketing, gérées via Tableau, avec une couche sémantique externe fournie par un ERP ou une autre solution comme LookML [Looker, N.D.R.] ».

La réutilisation des sources de données publiées devrait être possible à la fin de l’année 2024, ce qui laisse à penser que l’intégration avec les couches sémantiques externes débutera à partir de l’année prochaine, à partir de la version 25.1. C’est ce que Southard Jones, Chief Product Officer chez Tableau Salesforce avait dévoilé sans entrer dans les détails en introduction de la Tableau Conference ; lui évoquait des liens potentiels avec les couches sémantiques de SAP et de Workday.

Pour rendre cette couche sémantique réellement utile, Tableau sait qu’il devra la rendre programmable. C’est en ce sens qu’en août 2024, l’éditeur lancera VizQL Data Service. Pour rappel, VizQL, c’est le langage propriétaire développé par Tableau pour créer des visualisations. « Il s’agit de fournir des API qui vont permettre d’accéder à la couche sémantique que vous mettez en place dans Tableau pour d’autres usages », avance Fabien Van Schuerbeek. À son lancement en 2023, VizQL Data Service a été pensé pour exécuter le moteur analytique Hyper de Tableau à la demande, notamment pour des usages de BI embarquée..

Pour approfondir sur Outils décisionnels et analytiques

Close