Sergey Nivens - Fotolia
En 2016, l’hybridation des systèmes touchera également le monde de la donnée
Les entreprises doivent se projeter dans des environnements mêlant données internes et données dans le Cloud, et s’attendre à donner plus d’autonomie aux analystes via des offres de gestion des données en self-service. Voici quelques tendances qu’il faudra suivre en 2016.
Si en 2015, le monde de la gestion des données a inévitablement été rythmé au son de la visualisation des données avec Tableau et Qlik par exemple, de l’infusion de SQL aux environnements non relationnels et Hadoop, de Spark (on parle ici de sirènes plus que de son), en 2016, les entreprises imagineront des scenarii hybrides pour traiter et consommer de la donnée. Héritage de l’évolution des architectures elles-mêmes ainsi que des systèmes IT qui se mettent à mêler Cloud et systèmes internes. Héritage aussi probable de la modernisation de l’IT et de la très tendance transformation numérique qui poussent les entreprises à intégrer le Cloud au côté de leur systèmes patrimoniaux pour lancer de nouveaux services.
Presque comme une évolution naturelle, la donnée elle-aussi devrait subir cette hybridation et emprunter différentes voies pour devenir plus pertinente auprès des entreprises. Il faut dire que, dans le contexte actuel, renforcé par l’Internet des objets et les réseaux de capteurs, les réseaux sociaux et l’émergence de scenarri dits de Big Data, la donnée s’est assurée en 2015 une place de patrimoine dans les entreprises. Reste donc élargir le spectre des scénarri d’usages, et d’en faciliter la consommation.
Une couche d’abstraction virtuelle
« Dans une optique de recherche d’efficience, d’excellence opérationnelle et de coûts, les entreprises vont rechercher des architectures hybrides avec une vue distribuée sur l’ensemble de la donnée », commente Olivier Rafal, analyste principal chez Pierre Audoin Consultant (groupe CXP). Comment ? Par « l’intégration d’une couche fédératrice d’accès à la donnée, quels que soient sa localisation et son format, afin d’offrir au final une vue logique pour les métiers, sans se préoccuper de la source », ajoute-t-il.
Notons que c’est bien cette approche que l’on retrouve par exemple avec le rachat de Metanautix par Microsoft, en cette fin d’année. Metanautix développe en effet un moteur de requête qui virtualise les data marts multi-formats et multi-sources (SGBD interne, applications Cloud, Hadoop) pour pouvoir y appliquer SQL. Une sorte de couche d’abstraction qui fédère l’ensemble des données pour en faciliter la manipulation et l’analyse.
Cloud et sur site
Evidemment, l’un des enjeux pour les entreprises en 2016 sera de conjuguer, indifféremment, les sources de données Cloud et non-Cloud dans un tout cohérent. Ce qui, selon Olivier Rafal, devrait réellement débuter l’année prochaine, comme poussé la volonté de spécialistes, comme ceux de l’eCommerce, d’intégrer des multitudes de données internes à celles de l’Internet des objets par exemple. Un environnement où le Cloud occupera à coup sûr une place de choix en matière de stockage et de traitements.
2016 devrait être l’année où les analystes deviennent aussi plus autonomes en matière de gestion des données. Une approche en self-service plus présente donc qui devrait certes donner plus de capacités aux analystes pour interagir sur la hiérarchisation des données, mais aussi pour avoir accès aux ressources de stockage – pour par exemple sélectionner l’environnement adéquat pour un traitement donné. Par extension, cette approche devrait aussi assurer la croissance de sociétés comme Tableau ou encore Qlik.
Des nouveaux profils pour accompagner la transformation axée sur les données
Ce qui, par conséquence directe, ouvrira la porte à de nouveaux profils dans les entreprises. « Les entreprises sont à la recherche d’architectes de la donnée ainsi que de personnes qui font le pont entre leurs données patrimoniales et leur stratégie de transformation numérique », résume Olivier Rafal. En clair, « elles ont de la donnée, l’intuition qu’elles peuvent en faire quelque chose, mais ne savent pas comment s’y prendre ».
A condition toutefois que des travaux soient menés autour de la qualité des données, un parent souvent pauvre de la chaîne de valorisation. Pourtant, il convient de considérer la qualité des données selon les typologies d’usage, renchérit l’analyste PAC. Si dans le Reporting et la BI, celle-ci est primordiale, elle l’est beaucoup moins dans une approche statistique. En 2016, justement, les outils de gestion des données en self-service devraient poursuivre leur intégration d’outils liés à la qualité des données.
Comment enfin ne pas porter notre attention sur le Machine Learning en 2016. Si en 2015, les usages ont véritablement germé, poussés par exemple par les moteurs de recommandations des sites de eCommerce ou encore la détection de fraudes – Spark, Hadoop en sont les piliers technologiques –, en 2016, le ML va prendre davantage d’embonpoint. Les bibliothèques de ML ouvertes par les ténors de l’IT comme IBM ou encore Google vont attirer les éditeurs. Et de fait entrainer la création d’outils dotés d’une interface utilisateurs censée en faciliter la prise en main et la manipulation, raconte encore Olivier Rafal. Les rendre comestibles par des profils non techniques, en somme.