Gartner : les 10 tendances analytiques à surveiller en 2021
En fin d’année 2020, Gartner sortait sa boule de cristal afin d’explorer les tendances de la data science et de l’analytique. Comme d’habitude, le cabinet de conseils résume son propos en dix points. En résumé, l’IA s’immisce dans toutes les pratiques de l’analytique et de la gestion de données.
Dans ce monde soumis à une crise sanitaire d’envergure, il apparaît essentiel de mettre les bouchées doubles sur l’IA et l’analytique. C’est en tout cas ce qu’affirme Gartner, par la voix de Rita Sallam, vice-présidente et analyste émérite pour le cabinet de conseils.
La COVID aurait entraîné un besoin plus fort pour les technologies de machine learning et de NLP, selon l’analyste. Si cette vérité ne s’applique pas à tout le monde, Gartner prédit que d’ici à 2024, 75 % des entreprises passeront de la phase de pilote au déploiement de l’IA en production. En conséquence, le streaming de données devrait connaître une croissance cinq fois plus importante qu’actuellement.
1. Montée en puissance de l’IA, à tous les niveaux
Cette croissance s’accompagnerait d’une adaptation nécessaire des techniques de machine learning. Le cabinet observe que l’apprentissage renforcé (reinforcement learning) et l’apprentissage distribué (distributed learning) permettent de se confronter à des situations complexes où les données collectées pré-COVID ne sont plus pertinentes. Il est également possible de modéliser, de tenter de prédire des phénomènes avec des systèmes basés sur des agents.
Comme LeMagIT, Rita Sallam constate l’arrivée de nouvelles architectures matérielles pour accélérer les traitements IA, fondées sur la parallélisation des instructions. Et si les puces neuromorphiques impressionnent, ce sont bien les ASICs qui propulsent certains HPC et les instances cloud. D’autres équipementiers misent sur le edge computing en proposant de les spécialiser pour l’entraînement ou l’inférence des modèles, ce qui réduirait le besoin en bande passante.
Mais cette montée en puissance de l’IA s’appuyant à la fois sur des techniques adaptées, des accélérateurs matériels, et aussi l’automatisation, ne doit pas se faire sans perte de responsabilités. Or, ces technologies n’offrent pas d’elles-mêmes les clés pour comprendre les algorithmes déployés en production. C’est un travail humain, partiellement automatisable qu’il faut systématiquement réaliser, dès lors qu’une IA propulse des applications critiques dans la sécurité routière, dans la santé ou encore dans la finance, selon Gartner.
2. La renaissance du tableau de bord
Le déploiement de techniques analytiques de plus en plus avancées devrait également impacter la manière de visualiser les données. Rita Sellam et ses confrères assurent que la Data Storytelling sera la pratique la plus répandue pour consommer l’analytique et 75 % des « data stories » seront automatiquement générées via des méthodes d’analytique augmentée.
Le dashboard « classique » perdrait alors son intérêt, face à des visualisations enrichies par des données remises en contexte à l’aide des algorithmes employés par les éditeurs de logiciels, comme Tableau ou ToughSpot.
Détection d’anomalie, rapprochement automatique de données, NLP pour fluidifier les requêtes en langage naturel…, les techniques à portée de ces acteurs ne cessent de s’étoffer pour décupler l’expérience des métiers avec les outils BI. Selon Gartner, ces produits de Data Storytelling ont pour points communs d’apporter des indicateurs dynamiques, des dispositifs de préparation de données directement connectés aux sources, de la personnalisation en fonction des utilisateurs, des moyens de partager les indicateurs et de faciliter les interactions entre les métiers.
3. L’intelligence décisionnelle en légère croissance
En parallèle, les data analysts adopteront de plus en plus les disciplines de l’intelligence décisionnelle. Le cabinet estime que, d’ici à 2023, 33 % des grands groupes pratiqueront la « decision intelligence », plus particulièrement la modélisation décisionnelle. Il s’agit donc de faciliter la généralisation d’une méthodologie pourtant bien connue, afin de gérer dynamiquement les processus décisionnels d’une entreprise suivant ses résultats, le niveau de formation de son personnel, la disponibilité des matières premières, par exemple.
Ce croisement affiné des données demande généralement des connaissances plus avancées, mais les éditeurs ont leurs cartes à jouer en proposant des outils analytiques couplés à des interfaces graphiques de modélisation de flux. Ces produits sont à la frontière du BPM, du low-code/no-code, de la BI, de l’analytique avancée et de la RPA. À moins que l’entreprise, se mettant à l’intelligence décisionnelle, combine différents produits.
4. X analytics : ne plus laisser de données de côté
Cette quatrième tendance nommée x Analytics est un moyen pour Gartner d’expliquer que l’analytique tend à s’étendre au-delà des données structurées, pour prendre en compte davantage de types de ressources. D’ici à 2025, l’analyse vidéo, audio, des vibrations, du texte, et des émotions par l’IA « déclencheront des innovations majeures chez 75 % des membres du Fortune 500 », anticipe le cabinet.
En outre, 80 % de toutes les données à leur disposition ne seraient pas totalement utilisés par les entreprises. Les images, les séquences vidéo, les fichiers audio, les tweets, les posts sur les réseaux sociaux, les articles de blogs, sont autant de documents qui peuvent être analysés. Les modèles d’intelligence artificielle qui en découlent devraient faciliter des politiques marketing, la maintenance prédictive, les changements climatiques, la détection de maladie ou encore la gestion des accidents automobiles par les assureurs.
Gartner y voit également un moyen pour combiner des domaines de l’intelligence artificielle « afin d’identifier et de prédire des catastrophes naturelles et d’autres types de crises » qui pourraient impacter les sociétés humaines (et le monde en général). Si des éditeurs proposent déjà des services pour couvrir ces nouveaux besoins analytiques, le cabinet estime que l’innovation dans ce domaine provient essentiellement des « startups et des fournisseurs cloud ».
5. La métadonnée est la clé de la gestion de données
Mais avant cela, les entreprises doivent optimiser leur gestion des données. En cela, les outils de traitement de métadonnées seraient essentiels. Selon Gartner, d’ici à 2023, les organisations qui combinent métadonnées et machine learning pour automatiser le data management, devraient réduire le temps d’obtention des données de 30 %.
Pour ce faire, ils devront se doter de « data fabrics », des infrastructures de stockage et calcul communes, pour abriter des données variées, sur lesquelles s’appuient différents environnements destinés aux métiers, aux data scientists, ou encore aux professionnels de l’IT (pour la supervision, par exemple).
Les data catalogs, les moteurs de recherche cognitifs et les outils de préparation/nettoyage de données doivent aider à créer des bibliothèques de ressources pour différents usages de l’intelligence artificielle et du machine learning, en passant par les agents conversationnels ou la mise en route de bots RPA, capables d’automatiser certains processus.
6. Le cloud perçu comme un « acquis » par Gartner
Évidemment, ces architectures uniformisées reposent majoritairement sur des infrastructures en cloud. La boule de cristal de Gartner prédit qu’en 2022, les fournisseurs de cloud public seront essentiels pour générer 90 % des innovations autour de la donnée et de l’analytique. En cela, les workloads hébergées dans le cloud et dédiées à l’IA devraient être multipliées par cinq entre 2019 et 2023.
Attention, car ces traitements lourds ne coûtent pas forcément moins cher dans le cloud que sur site, si l’on ne les optimise pas. De plus, il faut prendre en compte les frais de migration, de la gouvernance ou encore de la sécurité.
« Les responsables des données et de l’analyse doivent établir des priorités pour les charges de travail qui peuvent exploiter les capacités du cloud, et se concentrer sur l’optimisation des coûts et d’autres avantages tels que l’accélération du changement et de l’innovation lors du passage au cloud », note Gartner.
7. Une collision des modes de gouvernance
Évidemment, cette prévalence du cloud et des environnements unifiés provoque une collision des gouvernances de données et de l’analytique. En outre, le cabinet prédit qu’à l’horizon 2022, 40 % des développements de modèle ML et de scoring concerneront des applications non spécifiques à l’IA.
Toutefois, qui dit collision ne dit pas convergence : Gartner estime que cette dernière découle d’une politique de gouvernance commune à la donnée et à l’IT. Les organisations l’auraient déjà compris et seraient en bonne voie. « D’ici à 2023, 95 % des entreprises du Fortune 500 feront converger leurs politiques de gestion des données avec leur gouvernance analytique », considère le cabinet.
8. La démocratisation en cours de l’échange de données
En lien avec la plupart des tendances listées par le Gartner, il faut noter la démocratisation des plateformes d’échanges et de ventes de données. Environ 35 % des grands groupes seront soit vendeurs ou acheteurs de données via ces portails web en 2022. Ce serait 25 % de plus qu’en 2020. En France, on peut citer l’acteur spécialisé Dawex ou encore les Hubs soutenus par le gouvernement tel Ag Data Hub. AWS s’est également lancé sur ce marché, tout comme Snowflake.
La centralisation des accès à ces données tierces en réduirait les coûts et permettrait aux entreprises qui le souhaitent de plus facilement partager ou vendre des indicateurs. Les différentes régulations et les politiques des États et des institutions, dont celles de la France et bientôt de l’Europe, doivent encourager cette pratique génératrice de valeurs.
9. La blockchain, possible garant de la qualité des sources
En ce sens, Gartner considère que la blockchain pourra enrichir la qualité des données de 50 % d’ici à 2023, un aspect important de la gestion des données et l’analytique. Toutefois, elle pourrait dans un même temps réduire la disponibilité des données de 30 %. Rita Sallam tient à rétablir une forme de vérité en indiquant que la blockchain ne remplacera pas les bases de données, qu’elle n’offre pas une sécurité supplémentaire par rapport à d’autres systèmes.
Du manque de standards et d’interopérabilités entre les plateformes résulte l’impossibilité de démarquer un vainqueur parmi les éditeurs sur le marché. Toutefois, les cas d’usage devraient s’étendre de la traçabilité à l’audit des sources de données. Les déploiements en production restent rares, si l’on se fie aux renseignements de l’analyste.
10. Les technologies orientées graphes prouvent leur valeur
Étrangement, le cabinet place la croissance des technologies graphes en dixième position de sa liste des tendances. Sans doute parce qu’elle traverse pratiquement chacun des points abordés précédemment dans cet article. Largement mise en avant par Neo4J, cette technologie s’impose dans la plupart des outils de machine learning ou alimentés par l’IA.
Il s’agit d’offrir davantage de contextualisations aux données. De plus en plus d’éditeurs de la supervision IT s’en emparent pour faciliter la détection d’une root cause en « connectant » plusieurs types de données d’un système informatique. Mais ces arbres de relation peuvent servir dans bien d’autres situations, par exemple pour l’explicabilité de l’IA, le feature engineering, la prise de décision, ou encore la recherche médicale.