Cinq étapes pour améliorer son plan d'assurance qualité des données

Cet article expert livre quelques bonnes pratiques en matière de gestion de la qualité des données. Et surtout, aide les entreprises à garantir un niveau de qualité standard et optimum pour que leur politique de gouvernance puisse être efficace et donner des résultats optimisés.

Les dirigeants visionnaires savent combien la mise en place et l'institutionnalisation des meilleures pratiques peuvent améliorer l’utilisation des données et la qualité des informations. Des problèmes peuvent néanmoins survenir si des sociétés investissent de manière fragmentée dans certains aspects du nettoyage et de la correction des données. L’absence de processus complets d’assurance qualité et de gestion des données conduit à des efforts redondants et augmente les coûts ; pire encore, elle entrave la transmission d’informations cohérentes à la communauté des utilisateurs métier d’une organisation.

Il est donc nécessaire de mettre en cohérence les activités sur la qualité des données qui sont disparates, pour créer un programme organisé à même de résoudre les difficultés et de maintenir un niveau de qualité élevé. Outre l'implication de champions par métier et du développement d'une analyse de rentabilité pour les investissements dans la qualité des données, deux conditions incontournables, on trouvera ci-dessous une liste de cinq tâches et procédures fondamentales à mettre en œuvre pour permettre une gestion de la qualité efficace et des initiatives d'amélioration des données.

Documenter les besoins en qualité des données et définir des règles pour mesurer la qualité. Dans la plupart des cas, les niveaux de qualité des données sont liés à la « pertinence » des informations par rapport aux besoins des utilisateurs métier. Commencez par dresser l’inventaire des besoins : impliquez les utilisateurs métier, comprenez leurs objectifs métier et demandez-leur d’exprimer leurs attentes quant à l'utilisabilité des données. Ces informations, combinées à des expériences partagées sur l'impact des problèmes de qualité de données sur l'entreprise, peuvent permettre d’établir des règles pour mesurer les dimensions clés de la qualité, telles que la cohérence des formats de valeur de données dans différents systèmes, l'exhaustivité, le caractère courant et actuel des données et leur cohérence avec des sources définies de capture. Dans le cadre de ce processus, créez un système central pour documenter les besoins et les règles associées et permettre ainsi le développement de mécanismes de validation des données.

Évaluez les nouvelles données pour créer un référent qualité. Un processus reproductible d’évaluation statistique de la qualité des données concourt à l'accroissement de l'ensemble des règles de mesure de la qualité en recherchant des anomalies potentielles dans les données nouvellement créées. Les outils statistiques et de profilage des données peuvent analyser les valeurs, les colonnes et les relations à l'intérieur des ensembles de données et entre ces ensembles, en utilisant des analyses de fréquence et d'association pour évaluer les valeurs, les formats et l'exhaustivité des données et pour identifier les valeurs hors norme pouvant indiquer des erreurs. De plus, les outils de profilage peuvent permettre de remonter aux gestionnaires de qualité et de gouvernance des données des informations sur des éléments tels que les types de données, la structure des bases de données relationnelles et les relations entre les clés primaires et étrangères dans les bases de données. Les résultats peuvent être partagés avec les utilisateurs métier pour les aider à développer les règles de validation de la qualité des données en aval.

Mettre en place des processus de gestion des métadonnées sémantiques. À mesure que le nombre et la variété des sources de données vont croissant, se développe en parallèle le besoin de limiter le risque que les utilisateurs finaux de différentes parties d'une organisation interprètent de façon erronée les significations communes de termes métier et de concepts liés aux données. Centralisez la gestion des métadonnées pertinentes pour l'entreprise et impliquez des utilisateurs métier et des personnes pratiquant la gestion des données dans l'élaboration de standards d'entreprise. Vous réduirez ainsi les situations d’interprétations non cohérentes menant à des problèmes dans l'utilisation des données.

Vérifier la validité des données de façon continue. Développez des services automatiques pour valider les enregistrements de données par rapport aux règles de qualité définies. Une mise en œuvre stratégique permet de partager les règles et les mécanismes de validation dans l'ensemble des applications et de les déployer dans différents emplacements du flux d'informations d'une organisation, pour une inspection des données et des mesures de qualité continues. Les résultats peuvent alimenter différents systèmes de rapports : par exemple, des notifications ou des alertes directes envoyées aux gestionnaires des données pour résoudre les anomalies flagrantes et les défauts dans les données nécessitant une priorité élevée, et des tableaux de bord et des indicateurs de la qualité des données avec des métriques agrégées pour un public élargi.

Gardez le contrôle sur les problèmes de qualité de données. Développez une plateforme pour consigner, suivre et gérer les incidents concernant la qualité des données. Mesurez la conformité avec vos règles de qualité des données n'amènera à des améliorations que si des processus standard sont en place pour évaluer et éliminer les causes fondamentales des erreurs de données. Un système de gestion des incidents peut automatiser les processus tels que la création de rapports et la hiérarchisation des problèmes de qualité des données en alertant les personnes impliquées, en assignant des tâches d'amélioration de la qualité et en suivant l'avancement des efforts de remédiation.

Effectuées correctement, ces activités forment le cœur d'un cadre de référence proactif d'assurance qualité des données et de leur gestion avec des contrôles, des règles et des processus pouvant permettre à une organisation d'identifier et de résoudre les défauts dans les données avant qu'ils n'aient un impact négatif sur l'entreprise. Au final, corriger les erreurs et les incohérences dans les données et faire en sorte que leur cause fondamentale soit traitée permettra une utilisation plus large et plus efficace des données, pour le plus grand bénéfice de votre entreprise.

L’auteur
David Loshin est président de Knowledge Integrity Inc., une société de conseil de formation et de développement spécialisé dans la gestion des informations, la qualité des données et l'informatique décisionnelle. Il est également l'auteur de quatre livres, notamment The Practitioner's Guide to Data Quality Improvement (Guide du gestionnaire pour l'amélioration de la qualité des données) et Master Data Management (Gestion des données de référence).

Contactez-nous à [email protected] et suivez-nous sur Twitter : @sDataManagement

Pour approfondir sur MDM - Gouvernance - Qualité