NLP : la tendance la plus importante de la BI en 2023, selon les experts
Compte tenu des progrès réalisés dans le développement des agents conversationnels, comme le récent lancement de ChatGPT, les observateurs du secteur s’attendent à ce que les éditeurs de solutions analytiques accordent la priorité aux requêtes et aux analyses en langage naturel.
Le traitement du langage naturel (NLP) pourrait être la plus grande tendance de l’année 2023 dans le domaine de l’analytique.
Le NLP n’est pas nouveau dans le domaine de l’analytique. Il y a dix ans, ThoughtSpot a construit toute sa plateforme autour du concept de recherche en langage naturel, permettant à ses utilisateurs de poser des questions sur leurs données en utilisant des mots plutôt que du code. Depuis lors, la plupart des éditeurs de solutions d’analytique ont ajouté au moins quelques fonctionnalités NLP.
Par exemple, Tableau a lancé Ask Data et Explain Data en 2019 et a ensuite acquis le fournisseur de data storytelling Narrative Science, ce qui a conduit à la sortie de Data Stories en 2022. Yellowfin a également fait du data storytelling un élément clé de sa plateforme. AWS, Oracle et Qlik – entre autres – disposent tous de solides capacités similaires.
Les progrès du NLP
Idéalement, un métier pourrait taper ou formuler une requête dans n’importe quelle langue, et sa plateforme BI pourrait répondre en fournissant des données pertinentes dans un format digeste tel qu’un tableau ou un graphique accompagné d’une explication détaillée. En outre, la plateforme serait capable de répondre de la même manière à des questions de suivi plus détaillées afin que l’utilisateur puisse tirer des indicateurs pertinents des données de leur organisation.
Toutefois, des limites importantes subsistent. Par exemple, les différentes manières de formuler la même question, les mots avec la même orthographe, mais au sens différent, posent des difficultés. Les systèmes existants ont encore du mal à interpréter le langage, le traduire en code pour exécuter une requête, puis retraduire une réponse transcrite en langage naturel pour l’utilisateur.
En outre, il existe plus de 5 000 langues dans le monde. Aujourd’hui, la programmation d’une plateforme permettant de converser dans les langues les plus courantes n’est pas à la portée de tous les éditeurs.
Mais au cours des 12 prochains mois, le NLP – qui, pendant de nombreuses années, a été présenté comme une nouvelle manière de faire de la BI en libre-service pourrait devenir la tendance dominante de l’analytique, selon des experts du secteur.
C’est ce que croit fermement Ritesh Ramesh, COO de la société de conseil en soins de santé MDAudit et client de ThoughtSpot. « La capacité à générer automatiquement des perspectives commerciales et des commentaires derrière ces perspectives [sera une tendance importante]. C’est une technologie qui génère automatiquement des récits à partir de la visualisation ».
Pourquoi cette tendance risque-t-elle de s’imposer cette année ? Parce que ChatGPT, un prototype de chatbot lancé par OpenAI en novembre 2022, fait grandement évoluer les capacités de questions-réponses d’une telle technologie, selon les experts du secteur.
« En 2023, le traitement du langage naturel profitera d’avancées majeures », prédit Donald Farmer, fondateur et directeur de TreeHive Strategy. « Déjà, les modèles linguistiques de grande taille tels que ChatGPT deviennent de plus en plus populaires pour obtenir des informations à partir de données non structurées ».
En particulier, la sortie de ChatGPT – qui s’appuie sur les capacités du modèle NLG GPT-3, un modèle fondamental lancé en 2020 – pourrait stimuler la généralisation du NLP dans l’analytique.
Les éditeurs qui ont développé leurs propres solutions de traitement du langage naturel pourraient être rejoints par des acteurs souhaitant intégrer ChatGPT au sein de leurs produits.
Comme GPT-3, ChatGPT convertit un mot tapuscrit en code, exécute une requête demandée et traduit la réponse en langage naturel. Certains – dont Andrew White analyste chez Gartner – considèrent que ChatGPT est « le meilleur de la bande ». D’autres perçoivent ChatGPT comme un véritable bond technologique.
« Nous sommes témoins d’innovations énormes en matière d’interrogation et de génération de données en langage naturel : il s’agit d’un véritable saut technologique », assure Dan Sommer, directeur principal et responsable mondial de l’intelligence du marché chez Qlik. « ChatGPT est extrêmement puissant et montre que cette interface de chatbot en langage naturel va faire bouger les choses à court terme. Elle change la manière dont nous pouvons interagir avec les données et dont les données sont générées pour nous ».
Dan SommerDirecteur principal et responsable mondial de l'intelligence du marché, Qlik
Amazon, Microsoft et Salesforce – société mère de Tableau – devraient aussi apporter des améliorations substantielles à leurs fonctionnalités de NLP au cours des 12 prochains mois, selon Donald Farmer.
« Ces [nouveaux chatbots] peuvent générer du SQL à partir d’une entrée en langage naturel, ils sont plus avancés que ceux de la génération précédente », explique-t-il. « C’est un élément qui sera probablement important au cours de l’année à venir ».
Il reste toutefois un long chemin à parcourir avant que le NLP soit parfaitement utilisable, selon David Menninger, analyste chez Ventana Research.
Comme les autres technologies NLP, même ChatGPT ne comprend pas réellement le langage. Il s’agit toujours d’un programme informatique qui ne peut faire que ce pour quoi il est programmé. Par exemple, il n’est pas encore capable d’interpréter le sens d’une requête quand elle est mal formulée.
En outre, les réponses ne sont pas toujours précises et, comme toute autre IA, elles sont sujettes à des préjugés.
« Le NLP a encore du chemin à parcourir avant de devenir une technologie courante. Il y a encore beaucoup de lacunes, mais je pense que [l’évolution] se poursuivra en 2023 », nuance David Menninger.
« Je pense que le NLP permettra de répondre à des questions moins formatées dans un plus grand nombre de langues en 2023 », ajoute-t-il.
En outre, il remarque que les avancées en matière du traitement du langage naturel en 2023 se concentreront sur l’écrit plutôt que sur la parole. « Si les développements ne sont pas à l’arrêt, je pense toujours que la voix va rester à la traîne », déclare-t-il.
Intelligence décisionnelle
Le NLP ne sera pas la seule tendance d’envergure en 2023. L’intelligence décisionnelle a pris de l’ampleur en 2022 et devrait continuer à gagner du terrain en 2023.
La quantité de données collectées par les organisations augmentant à un rythme exponentiel, les métiers et les experts de la donnée ne sont plus humainement capables de tirer des indicateurs viables.
L’intelligence décisionnelle consiste à utiliser l’analytique augmentée et le machine learning pour surveiller les indicateurs clés et d’autres données afin de détecter les changements, les anomalies ou les tendances, de faire apparaître ces informations et d’alerter les experts en données, qui pourront ensuite déterminer si des mesures doivent être prises.
Pyramid Analytics, Sisu Data et Tellius sont parmi les éditeurs porte-étendard de l’intelligence décisionnelle. Ils ont tous attiré des fonds de capital-risque au cours des 16 derniers mois malgré la détérioration des conditions sur les marchés financiers.
« Il y a beaucoup d’opportunités pour aider les organisations à prendre des décisions plus intelligentes », avance David Menninger. « Je pense que nous sommes au début de la tendance, mais les entreprises ne bénéficient pas assez de soutien aujourd’hui de la part des éditeurs et des outils, en général ».
Cela fait partie de ce que Krishna Roy, analyste chez 451 Research, appelle l’intelligence exploitable, qui, selon elle, devrait occuper une place prépondérante dans l’IT en 2023.
Bien qu’elle ne soit pas spécifiquement liée à l’intelligence décisionnelle, l’intelligence exploitable vise, elle aussi, à déployer des technologies pour soutenir les décisions qui mènent à des actions. Mais plutôt que de présenter des informations de surface pour les experts en données, le concept consiste plutôt à intégrer des informations dans les flux de travail des utilisateurs professionnels.
« L’intelligence exploitable sera une grande tendance », avance Krishna Roy. « La prise de décision “data-driven” devra être possible en utilisant différentes approches, en fonction du cas d’usage et de l’utilisateur. Les analyses exploitables, comme leur nom l’indique, permettront d’y parvenir en facilitant l’exécution des analyses, en les intégrant dans des flux de travail familiers que les métiers utilisent régulièrement ».
Qlik fait partie des fournisseurs qui font de l’intelligence exploitable une priorité.
Maillage de données
Une autre tendance émergente s’apparente davantage à une approche philosophique de l’analytique.
La notion de Data Mesh (ou maillage de données), introduite pour la première fois en 2019, est une approche de l’analytique qui décentralise les données. Bien que ses avantages soient connus depuis quelques années, son adoption a été lente. Cela pourrait changer en 2023, car les dirigeants cherchent à exploiter les données de manière plus rationnelle.
Traditionnellement, les organisations hébergent les données dans des référentiels centralisés supervisés par une équipe d’experts et les données sont analysées selon les besoins. Dans certains cas, les analyses elles-mêmes sont effectuées par une équipe centrale qui fournit des rapports et des tableaux de bord sur demande.
Une approche Data Mesh permet plutôt aux équipes de différents domaines, comme la finance et le marketing, de superviser et d’analyser leurs propres données tout en reliant les données de chaque domaine par un catalogue de données.
L’idée est de tirer parti de la connaissance du domaine des employés d’une organisation, en partant du principe qu’un expert en données de la finance ou du marketing sera plus compétent, en matière de données financières ou marketing, qu’un data analyst « généraliste ».
Comme le NLP et l’intelligence décisionnelle, le maillage de données vise également à étendre l’utilisation des données pour éclairer la prise de décision au sein des organisations. Il encourage l’idée que les experts du domaine peuvent plus facilement collaborer avec les utilisateurs en libre-service et leur apprendre à exploiter les informations à leur disposition.
« Nous allons voir que les personnes qui parlaient de décentralisation il y a un an, deux ans, voire trois ans, avaient raison », avance Russell Christopher, directeur de la stratégie produit chez Starburst, spécialiste du maillage des données.
Russel Christopher, ayant passé six ans chez Tableau et 14 ans chez Microsoft, explique qu’il a dû, à un moment donné, prouver aux gens les avantages de la visualisation des données, avant qu’ils n’en réalisent finalement la valeur. Aujourd’hui, des éditeurs comme Starburst, Talend et Denodo, dont les outils permettent de réaliser ces Data Mesh, font de même pour la décentralisation des données.
« La sauce commence à prendre », signale-t-il.
Donald Farmer voit également des organisations explorer le maillage des données, mais il ajoute que ce concept n’en est encore qu’à ses débuts. Il prévient que la gouvernance des données doit être davantage intégrée au maillage de données avant que celui-ci ne devienne viable à grande échelle.
« En général, un Data mesh correspond à un type de BI en libre-service, et certains éditeurs et utilisateurs explorent l’architecture de manière plus rigoureuse », déclare-t-il. « Mais un problème majeur qui doit encore être abordé est la gouvernance, ce qui empêchera probablement les entreprises d’adopter le concept ».