peshkova - Fotolia
Gestion de données et analytique : ces six tendances qui ont façonné 2024
L’évolution des plateformes de données en cadre de développement d’applications d’IA et l’émergence de l’IA agentique ont été au cœur de l’actualité des éditeurs de la gestion de données et de l’analytique en 2024.
Depuis deux ans, après le lancement de ChatGPT, les éditeurs n’ont d’yeux que pour l’IA générative.
Une capacité qui a fait émerger la promesse de l’employé augmenté. Elle est incarnée par les copilotes, lancés à tour de bras par les éditeurs à partir de 2023.
Ces assistants permettent des interactions en langage naturel. Mais ils sont réactifs. Ils exigent de l’utilisateur qu’il s’engage en posant des questions. Certains assistants sont suffisamment sophistiqués pour suggérer des questions de suivi qui conduisent à une analyse plus approfondie.
Ce n’est qu’au cours de l’année dernière que certains de ces assistants ont été livrés… et aussitôt rendus obsolètes par l’émergence d’une autre tendance : l’IA agentique.
1. L’IA agentique, LA tendance émergente de 2024
C’est la tendance qui a dominé l’actualité des éditeurs ces douze derniers mois, mais elle a réellement pris le pas au cours de la deuxième moitié de l’année 2024.
Si les copilotes peuvent de manière optionnelle s’appuyer sur une architecture RAG – permettant la recherche d’informations de l’entreprise – du fait qu’ils sont capables d’appeler de outils, les agents sont plus proactifs et potentiellement autonomes.
Une tendance qui s’est fortement illustrée dans la gestion de données et l’analytique.
« Le marché s’oriente vers l’IA agentique et l’analyse agentique », a déclaré en septembre David Menninger, analyste chez Ventana Research, une filiale d’ISG. « Développer des agents plutôt que de s’appuyer sur des tableaux de bord représente un changement de paradigme. Au lieu que les données apparaissent dans des tableaux de bord et que leur interprétation soit laissée à l’observateur, les agents peuvent amorcer des actions basées sur les données ».
Yasmeen Ahmad, directrice générale de la stratégie et de la gestion des produits sortants pour les données, l’analyse et l’IA chez Google Cloud, a également déclaré que le développement d’agents d’IA constituait la prochaine phase de l’évolution de l’IA dans l’entreprise.
Google Cloud fait partie de ceux qui développent actuellement des agents d’IA et fournissent des outils aux clients pour qu’ils fassent de même. Looker, la principale plateforme analytique du géant technologique, adopte une approche agentique.
Il en va de même pour Databricks, Qlik, Salesforce, Snowflake et ThoughtSpot, entre autres.
Par exemple, Tableau, une filiale de Salesforce, a dévoilé en septembre Tableau Einstein, une version de sa plateforme de BI avec l’IA agentique en son cœur. Et Databricks a lancé en juin le Mosaic AI Agent Framework pour permettre le développement de l’IA agentique.
« Plutôt qu’un humain qui vient aux données et demande un aperçu ou une amélioration de la qualité des données, un agent de données surveille les données, recherche les anomalies, fait émerger des aperçus, suggère des métriques de modélisation sémantique à surveiller », expliquait Yasmeen Ahmad au mois d’août. « Nous passons d’un monde réactif à un monde où l’IA générative est proactive dans le soutien du cycle de vie de l’analyse des données ».
Yasmeen AhmadProduct Executive, Strategy & Outbound Product Management - Data, Analytics & AI, Google Cloud
2. L’évolution des plateformes de données
Il n’y a pas si longtemps, la gestion et l’analyse des données avaient pour objectif principal de permettre aux clients de préparer et d’analyser leurs données.
Des éditeurs tels que Databricks et Snowflake proposaient des plateformes cloud pour le stockage des données, facilitant l’accès des clients à ces dernières pour leur analyse. Parallèlement, des acteurs comme MicroStrategy et Qlik fournissaient des outils pour créer et visualiser des rapports et tableaux de bord, conduisant ainsi à des prises de décision basées sur des indicateurs.
Aujourd’hui, toutes ces plateformes deviennent des « plateformes d’intelligence artificielle ».
Depuis le lancement de ChatGPT par OpenAI, l’objectif central de nombreux éditeurs est de développer des environnements permettant à leurs clients de construire des modèles et des applications intégrant l’intelligence artificielle générative.
« Tous les éditeurs de plateformes de données investissent massivement dans les capacités d’IA et de machine learning », confirmait David Menninger en novembre.
Par exemple, Databricks a acquis MosaicML pour 1,3 milliard de dollars en 2023 afin de renforcer ses capacités d’entraînement et de manipulation des grands modèles de langage. Au cours des deux dernières années, Databricks a également mis en place des intégrations avec des développeurs de grands modèles de langage (LLM) tels que Mistral AI et Anthropic. Il a développé son propre LLM et introduit des outils de gouvernance de l’IA et de contrôle de la qualité des modèles. Son rival Snowflake a fait de même sur tous les points.
En parallèle, des géants technologiques comme AWS, Google Cloud et Microsoft, ainsi que des spécialistes allant d’Accenture à Zoho, ont fait du développement de l’IA une priorité de leurs efforts en matière de produits.
Cependant, malgré l’intérêt croissant et des investissements dans le développement de l’IA encore récents, les deux dernières années ne représentent que le début d’une nouvelle ère pour la gestion et l’analyse des données, selon Baris Gultekin, responsable de l’IA chez Snowflake.
« En matière d’IA, je dirais que tout le monde est au début de son parcours, et que nous avançons rapidement », déclarait-il en mars. « Globalement, le rythme du développement est phénoménal ».
En bref : les six tendances 2024 de la gestion de données et de l’analytique
- L’IA agentique : les éditeurs font évoluer leurs copilotes en agents semi-autonomes, doués d’outils.
- Les plateformes de données évoluent en plateformes d’IA : les fournisseurs promettent de faciliter le développement d’applications d’IA.
- L’IA générative devient une réalité : l’IA générative se concrétise avec des outils et des applications opérationnels dans diverses industries, mais les déploiements à l’échelle sont rares.
- L’importance de la qualité des données : la qualité des données devient cruciale pour garantir des résultats fiables des modèles d’IA.
- Le besoin d’un cadre de gouvernance pour l’IA : les entreprises sont fortement invitées à mettre en place des structures de gouvernance pour gérer les risques liés à l’utilisation de l’IA.
- Le retour des financements : après un ralentissement, les investissements dans la gestion des données et l’analytique redémarrent, grâce à l’IA générative.
3. Des promesses à la réalité
De fait, les acteurs du marché s’étaient précipités en 2023. Environ trois mois après le lancement initial de ChatGPT, les premières initiatives d’IA générative des éditeurs d’outils de gestion et d’analyse de données ont commencé à émerger.
Des acteurs tels que Pyramid Analytics, ThoughtSpot et Sisense ont annoncé des intégrations avec des fournisseurs de LLM. Par la suite, ils ont développé des assistants IA permettant aux clients d’interagir avec leurs données en utilisant le langage naturel.
De nombreux autres éditeurs ont emboîté le pas, promettant des outils capables de rendre les capacités d’intelligence décisionnelle accessibles à pratiquement tous les employés. Ces outils visaient également à prendre en charge des tâches fastidieuses comme la programmation et la documentation, en vue d’améliorer l’efficacité des experts.
Cependant, la plupart de ces promesses n’étaient qu’en phase de prévisualisation lors de leur annonce initiale. Tout au long de l’année 2023, beaucoup d’espoirs ont été suscités, mais peu d’entre eux se sont concrétisés.
« Nous avons vu de nombreux cas d’usage de l’IA générative dans les logiciels BI émerger l’année dernière [en 2023, N.D.R.], mais la plupart étaient encore dans des prototypes ou des démonstrations, qui comportaient parfois des artifices », observait Stewart Bond, analyste chez IDC, en avril 2024.
Cela a commencé à changer fin 2023, avec MicroStrategy qui a été l’un des premiers éditeurs à rendre généralement disponibles ses capacités alimentées par l’IA générative. Beaucoup d’autres ont suivi en 2024, et les promesses de l’IA générative ont commencé à se réaliser.
Des spécialistes de la gestion des données comme Informatica et Dremio ont lancé des assistants alimentés par l’IA, tout comme des experts en analyse tels que Tableau et Qlik.
De plus, les fournisseurs de plateformes de données, tels que Databricks et Snowflake, ainsi que les géants technologiques, ont officialisé la disponibilité générale d’une partie de leurs fonctions d’IA générative. Leur objectif : aider leurs clients à développer leurs propres applications basées sur la GenAI.
LeMagIT s’est fait l’écho des premiers cas d’usage en production de ces produits, ainsi que de POC très prometteurs. Toutefois, les déploiements généralisés sont pour l’instant l’exception de ce côté de l’Atlantique comme de l’autre, quoi qu’en disent les éditeurs.
4. La qualité des données, un enjeu démultiplié par l’IA
Ce faisant, l’écosystème s’est rendu compte d’une chose : comparer les données au pétrole est enfin pertinent. Pour rouler, un véhicule équipé d’un moteur à combustion interne a besoin d’un carburant : de l’essence, du diesel, de l’éthanol, bref du pétrole raffiné. Il en va de même pour les modèles et les applications d’IA qui ont besoin de données de qualité.
Si les données sont inexactes, incohérentes, incomplètes ou périmées, les résultats fournis par les modèles et les applications le refléteront et ne seront pas fiables. Les conséquences peuvent aller de l’inutilisation pure et simple des applications d’IA à des pertes financières, des violations de la réglementation et un embarras considérable.
À l’inverse, avec des données complètes, cohérentes, exactes et récentes, les résultats des modèles et des applications auront plus de chances d’être corrects et fiables. Autant d’éléments a priori bénéfiques pour la prise des bonnes décisions et l’efficacité des processus en entreprise.
« La qualité des données est très importante dans un monde où l’on passe de tableaux de bord et de rapports créés à la main à un monde où l’on veut que l’IA fasse des analyses à grande échelle », martelait en septembre Saurabh Abhyankar, chef de produit chez MicroStrategy.
Garantir la qualité des données est depuis longtemps un défi pour les entreprises. L’augmentation exponentielle du volume de données collectées aujourd’hui par les entreprises, associée à la complexité croissante des données, rend la tâche encore plus ardue.
Selon Donald Farmer, fondateur et directeur de TreeHive Strategy, pour s’approcher le plus possible de la garantie que seules des données de haute qualité sont utilisées avec les outils d’IA, des processus automatisés – tels que la recherche vectorielle, la génération augmentée par extraction et l’observabilité des données – supervisés par des humains, capables d’intervenir en cas de besoin, sont nécessaires.
Donald FarmerFondateur et directeur, TreeHive Strategy
« La mise en qualité de données nécessite d’automatiser les traitements », avançait-il en septembre. « C’est là que les choses changent. Les volumes traités sont de plus en plus massifs et il n’est tout simplement pas possible de laisser les humains effectuer des transformations manuelles à cette échelle ». En revanche, le fait que des femmes et des hommes peuvent auditer le processus « est très important ».
5. Une nécessaire gouvernance de l’IA
Tout comme des données de mauvaise qualité peuvent nuire à une organisation, une utilisation incorrecte des modèles et applications d’IA peut avoir des conséquences négatives.
Pendant des décennies, les données étaient centralisées dans des bases sur site sous le contrôle des départements informatiques, rendant la gouvernance centralisée peu nécessaire en raison de l’accès limité aux données. Avec l’arrivée de l’analytique en libre-service, grâce à des plateformes comme Tableau et Qlik, les non-experts ont pu accéder aux données et les analyser directement. Cette démocratisation a poussé les entreprises à établir des cadres de gouvernance pour permettre une utilisation fiable des données par les utilisateurs métiers, tout en protégeant l’organisation des erreurs accidentelles.
Aujourd’hui, la même évolution se produit avec l’IA.
Pendant longtemps, le machine learning, l’analyse prédictive et d’autres formes d’IA étaient réservées aux équipes de data science. L’IA générative a changé la donne. Pratiquement tout employé peut désormais interroger les données d’une organisation.
Cependant, si l’utilisation des outils d’IA n’est pas encadrée par des pratiques et des politiques appropriées, les risques encourus peuvent être similaires à ceux des modèles et applications mal conçus : faible précision, biais, non-conformité aux réglementations et pertes financières, selon Kevin Petrie, analyste chez BARC U.S.
Kevin PetrieAnalyste, BARC U.S
« Si ces risques ne sont pas correctement contrôlés et atténués, vous pouvez vous retrouver avec… des sanctions réglementaires ou des coûts liés à la conformité, des clients mécontents, et des processus opérationnels qui rencontrent des blocages », prévenaient-ils en septembre.
Du fait de la jeunesse de l’IA générative, de nombreuses organisations n’ont pas encore élaboré un cadre de gouvernance de l’IA, signale Kevin Petrie. Cependant, de nombreux fournisseurs de gestion des données, tels qu’Alation, Collibra et Dataiku, intègrent désormais des outils de gouvernance de l’IA pour aider leurs clients à garantir une utilisation appropriée de l’IA.
« Les développements IA doivent être supervisés aussi rigoureusement que la gouvernance des données, ce qui constitue une extension naturelle des programmes de data governance », préconisait Doug Henschen, analyste chez Constellation Research, en octobre. « Les organisations ont besoin d’aide face à ces défis, donc il est encourageant de voir… des éditeurs ajouter des fonctionnalités pour traiter les risques spécifiques à l’IA et répondre aux exigences réglementaires émergentes ».
6. Le retour en grâce de la gestion de données auprès des investisseurs
Ces freins potentiels n’ont pas modéré les ardeurs des investisseurs. Au contraire, mais il vaut mieux parler de retour en grâce.
L’analytique et la gestion des données ont attiré un fort intérêt des investisseurs durant les années 2010, intérêt amplifié par la pandémie de COVID-19 en 2020, qui a mis en lumière l’importance des analyses en temps réel pour la prise de décisions critiques.
Snowflake a établi un record avec une introduction en bourse historique en septembre 2020, suivi par des levées de fonds spectaculaires en 2021, comme Databricks (1 milliard de dollars) et Confluent (828 millions de dollars). Cependant, dès 2022, l’incertitude économique liée à des facteurs tels que la guerre en Ukraine, les perturbations des chaînes d’approvisionnement et la hausse des taux d’intérêt a freiné cet élan, entraînant une baisse des financements et un ralentissement des investissements, sauf pour quelques entreprises comme Databricks qui ont continué à lever des fonds jusqu’en 2023.
En 2024, bien que les investissements dans le secteur des données ne soient pas aussi abondants qu’il y a quelques années, la tendance s’est redressée. Cribl, Aerospike et Sigma ont chacun levé plus de 100 millions de dollars, tandis que d’autres, comme Ocient et Coalesce, ont attiré environ 50 millions de dollars.
« Lever du capital-risque a été quelque peu difficile ces dernières années en raison de l’environnement économique global », rappelait Matt Aslett, analyste chez Ventana Research d’ISG, en avril. « Mais le financement reste accessible… pour les éditeurs de logiciels analytiques et de gestion de données ayant une proposition de valeur attrayante et différenciée. »
Dans une certaine mesure, cette proposition de valeur repose sur l’IA.
Les fournisseurs d’IA eux-mêmes lèvent des montants colossaux. Par exemple, OpenAI a levé plus de 6 milliards de dollars en 2024 complétés par une ligne de crédit de 4 milliards, tandis qu’Anthropic – à l’origine de la gamme de modèles d’IA générative Claude – a levé environ 7 milliards de dollars cette année. C’est aussi l’un des moteurs de la levée de fonds record de Databricks, avec ses 10 milliards de dollars.
« [Les éditeurs qui collectent des financements] ajoutent tous des capacités pour exploiter le marché des charges de travail liées à l’IA », observait Stephen Catanzano, analyste chez Enterprise Strategy Group, une filiale d’Informa Techtarget, en avril. « Je pense que les éditeurs regardent les projections massives du marché de l’IA et peuvent facilement montrer qu’ils peuvent en obtenir une part, mais ils ont besoin de plus d’argent et les investisseurs sont attentifs ».
Pour approfondir sur IA appliquée, GenAI, IA infusée
-
Azure Ignite 2024 : les annonces clés de Microsoft autour de l’IA générative
-
Agentforce : Salesforce dévoile les entrailles de son moteur de raisonnement Atlas
-
RAG, IA agentique : Couchbase lance (lui aussi) ses services dans Capella
-
AWS et Box étendent leur partenariat pour l’IA générative Q et le développement d’applications