Gartner voit le Machine Learning changer la face de l'analytique
Dans son top 10 des prévisions sur l’évolution de l’analytique d’ici 2022, Gartner met en avant l’arrivée à maturité d’une Intelligence Artificielle qui s’infuse désormais dans quasiment tous les outils – de la BI à la gestion des données en passant par l’analytique intégrée.
Le cabinet d’analystes Gartner vient de publier un rapport, en amont de son évènement Data & Analytics Summit 2019 qui se tiendra du 4 au 6 mars prochain à Londres, dans lequel il identifie une dizaine de tendances qui devraient influencer l’analytique et la BI (et leurs utilisateurs) dans les trois à cinq ans.
Parmi ces tendances, Gartner voit une montée en puissance – qui continue – de l’Intelligence Artificielle (principalement le Machine Learning) appliquée à l’analyse des données.
« L’énorme quantité de données et les capacités de traitement de plus en plus puissantes qu’offre le cloud permettent d’entrainer et d’exécuter des algorithmes à grande échelle, un point indispensable pour concrétiser le plein potentiel de l’IA », explique Donald Feinberg, vice-président et Research Analyst chez Gartner. Un des défis connexes à relever sera de garder cette IA explicable (lire ci-après).
L’autre évolution majeure touche le périmètre d’action de l’analytique. « L’histoire des données et de leur analyse ne cesse d’évoluer, de l’aide à la prise de décision interne, à “l’intelligence continue” en passant par la nomination de responsables des données (Chief Data Officer) » retrace Rita Sallam, VP chez Gartner. « Il est essentiel de comprendre les tendances technologiques qui alimentent cette évolution et de les classer par ordre de priorité en fonction de leur valeur ajoutée pour l’entreprise ».
Analytique augmentée
La tendance la plus forte, selon Gartner, est l’arrivée à maturité de l’analytique « augmentée » - la prochaine vague d’innovation qui va changer le marché selon le cabinet.
Gartner définit l’analytique augmentée comme l’utilisation de l’apprentissage automatique (ML) et d’autres techniques d’IA « pour transformer la façon dont le contenu analytique est développé, consommé et partagé ».
« D’ici 2020, l’analytique augmentée sera un facteur central des nouveaux achats d’outils analytiques et BI, de plates-formes de Machine Learning et de Data Sciences, et d’analytique intégrée ».
Le cabinet recommande donc aux utilisateurs et à l’IT de s’y intéresser dès aujourd’hui pour faire le meilleur choix dans un futur très proche.
Gestion des données augmentée
Gartner voit la même tendance dans la gestion des données (« Augmented Data Management »). Avec le Machine Learning, et d’ici fin 2022, les tâches manuelles de gestion des données devraient être réduites de 45 %, affirme le cabinet.
« La gestion augmentée transforme les métadonnées. Elles ne servent plus uniquement à l’audit, à la traçabilité et à l’établissement de rapports, mais elles commencent à alimenter des systèmes dynamiques. De “passives”, les métadonnées sont en train de devenir “actives” et un des principaux moteurs de toutes les IA/ML », écrivent les analystes.
L’Intelligence Artificielle devrait toucher quasiment toutes les facettes de la gestion des données : qualité, gestion des métadonnées, Master Data Management, intégration et même administration des bases.
« Le Machine Learning automatise de nombreuses tâches manuelles et permet aux utilisateurs moins qualifiés techniquement d’être plus autonomes dans leur utilisation des données » vante Gartner. « Il permet également à des ressources techniques hautement qualifiées de se concentrer sur des tâches à plus grande valeur ajoutée ».
Intelligence continue
Troisième tendance clef dans les années à venir selon Gartner : la « Continuous Intelligence ».
Ce concept maison désigne un modèle dans lequel de l’analytique en temps réel s’intègre à un processus opérationnel, en s’appuyant à la fois sur des données présentes et des données historiques, pour recommander des actions en réponse à des événements.
L’intelligence continue repose sur un panaché de technologies : l’analytique augmentée, l’Event Stream Processing et bien sûr le Machine Learning.
« L’intelligence continue représente un changement majeur pour les équipes en charge des données et de leur analyse », prévient Rita Sallam. « C’est un énorme défi et une très grande opportunité pour ces équipes BI qui peuvent désormais aider les métiers à prendre des décisions en temps réel plus intelligentes. On peut le voir comme ce qu’il y a de mieux en matière de BI opérationnelle ».
Pour Gartner, d’ici 2022, la moitié des nouveaux systèmes opérationnels intégreront de l’intelligence continue.
IA, IA, IA… et bases de graphes
Le cabinet liste sept autres tendances, plus ou moins matures et influentes. Une des plus importantes – avec la montée en puissance de l’IA – est celle de l’IA explicable (IAX). Autrement dit, que les résultats d’un traitement à base de Machine Learning et de Deep Learning ne soient pas une boîte noire.
« Pour ne pas détruire la confiance […], les responsables des applications vont devoir s’attacher à garder ou à rendre ces modèles interprétables et compréhensibles », prévient Gartner. Une des solutions est que l’IA génère elle-même une explication en langage humain de ce qu’elle fait.
Lire sur l’IA explicable :
Toujours dans l’IA et le Machine Learning, le NLP et le NLU (traitement et compréhension du langage humain pour des requêtes en langage courant) devraient devenir la norme avec plus de 50 % des requêtes effectuées de cette manière en 2020. Tableau, Qlik, ou Oracle dévoilent et travaillent déjà leurs offres sur ce point.
Dans la gestion des données, Gartner annonce également un décollage des bases de graphes (+100 % par an sur les 4 prochaines années).
« L’analyse de données graphes va se développer en raison du besoin de poser des questions complexes sur des données complexes [parfois en silos], ce qui n’est pas toujours pratique ou même possible à grande échelle avec des requêtes SQL classiques ».
En revanche, Gartner se montre toujours aussi sceptique à moyen terme sur la blockchain - « une source de données et pas une base de données », précisent les analystes. Le coût de l’intégration d’une blockchain avec l’existant (infrastructure, données, etc.) « a de fortes chances de dépasser les bénéfices escomptés » du fait que des standards stables ne se sont pas encore imposés.