C’est parti ! le Big Data et les besoin analytiques aidant, la gestion de la donnée est en train de passer du monde technique à celui des stratèges de l’entreprise. SAP ne s’y est pas trompé qui a organisé une matinée dédiée fin novembre, consacrée à l’EIM et aux différents enjeux autour de la qualité de la donnée. L’occasion de revenir sur les enjeux cruciaux autour de l’exploitation des données mais également de montrer quelques produits concernant la modélisation – avec PowerAMC – ou encore le traitement des données et la gestion du cycle de vie des données applicatives avec SAP Information Steward et Data Services.
Avec l’arrivée du Big Data et le besoin de contrôler son avenir l’analyse des données a le vent en poupe et occupe désormais une place stratégique dans l’entreprise, au-delà du processus technique jusqu’alors cantonné aux exercices comptables. Particulièrement attentif à ce mouvement SAP souhaite l’accompagner fort de son expérience des utilisateurs et surtout d’une offre de bout en bout permettant d’adresser les différents segments du processus d’analyse et de décision. Mais avant même de penser à exploiter un nombre de données toujours en extension il s’agit, selon le mot d’Yves Cointrelle Directeur général d’Homsys, d’établir une relation de confiance avec les datas et les process attenant. Et d’expliquer que la présence de données de mauvaise qualité dans le circuit entraînait une chaîne de compromission et surtout une série de risques qu’ils soient réglementaires ou portant sur des prises de décision étonnés ou entraînant des surcoûts important. Reste que la confiance ne se décrète pas et que l’enjeu de la qualité est bien au cœur de la problématique de l’Enterprise Information Management. A ce niveau l’analyse des données en amont du processus d’exploitation est donc primordiale pour « constituer un socle de pilotage pour l’entreprise » en s’appuyant notamment sur la constitution d’un référentiel d’entreprise, MDM.
Au-delà du pilotage il s’agit également de réduire la facture actuelle… pour Didier Mamma de SAP, selon le DataWarehousing institute, le coût annuel aux Etats-Unis lié à la non qualité des données se monte à 600 milliards de dollars. De même 15% de la perte de revenu d’une unité de production est dû à un problème de données. Partant de ces problèmes concrets SAP propose une offre globale partant du MDM et intégrant la problématique base de données dans un contexte Big Data au travers d’Hana. Entre les deux Didier Mamma, Directeur des activités Data et Technologies chez SAP France, explique que l’éditeur souhaite adresser l’ensemble des couches propre à la gestion de la donnée, de la modélisation en amont en passant par la gestion de la qualité ou les problématiques d’intégration. Surtout, l’ensemble du portefeuille a été constitué sur la base des besoins utilisateurs rencontrés par SAP dans son expérience au long cours dans le secteur de l’ERP. Didier Mamma a profité du Forum pour expliquer en quoi « il s’agit de partir des besoins réels pour proposer des solutions adaptées à la remontées d’information qualitative, en temps réel, dans des formats directement consommable quelles que soient les plates-formes ».
Venu présenter PowerAMC, François Guerin explique ainsi que, en amont des projets portant sur les données de l’entreprise, « l’enjeu porte désormais au-delà de la mission de modélisation au démarrage des projets, sur la capacité à capitaliser sur ces modèles et à les gérer dans la durée pour plus de qualité et plus de productivité. Un effort durable doit tout à la fois porter sur la qualité et la précision des modèles mais également sur la connaissance du contexte dans lequel ces modèles s’inscrivent, notamment en liens avec les descriptions des processus ou des applications. La modélisation devient une forme de chantier permanent. » Modélisation en amont et surtout méthodologie tout au long du projet. Car pour Yves Cointrelle d’Homsys, « la qualité ça doit se décréter certes mais cela doit surtout se mettre en œuvre puis faire l’objet d’un suivi ». Et de préciser qu’en matière de gestion d’EIM nous avons à faire « à un processus complexe, itératif et cyclique pour lequel on doit déterminer des seuils que l’on doit améliorer en permanence pour tendre vers les 100 % de qualité ». Ceci doit donc naturellement faire l’objet d’une méthodologie qui doit permettre d’être constant dans l’effort, en intégrant des tâches d’analyse, de supervision, de mise en œuvre, de contrôle et de définition d’indicateurs et de seuils. Ce qui amène Didier Mamma à conclure en affirmant que « c’est la combinaison technologie/process/intelligence/compétence qui va permettre aux entreprises de valoriser les datas ». Le tout nécessairement porté par une vision modulaire et agnostique des outils de base, qui intègrent désormais la stratégie globale de l’entreprise.