Le RPA : un nettoyeur des données du legacy
L’expert Dan Morris explique comment des robots RPA ont la possibilité de nettoyer et de réconcilier les données prises aux pièges dans leur îlot.
Les données sont partout - elles ne manquent pas. Mais dans quelle mesure peut-on s'y fier ? Où sont les bonnes données ? Et, plus important encore, que peut-on faire pour en améliorer la qualité ?
Si les outils sont nombreux à pouvoir répondre à ces questions, il en existe un qui n’est peut-être pas apparu sur le radar des entreprises : le RPA (Robotic Process Automation). L’automatisation des processus permet en effet à des robots de créer une base de données consolidée, à partir de systèmes legacy réputés peu ouverts.
En grande partie, les applications patrimoniales ont été conçues pour soutenir de petites fonctions métier, et non pas de grands processus de bout en bout. Ces applications ont été conçues en grande partie pour fonctionner de façon indépendante, sans se soucier du partage des données, du contrôle de leur flux et de leur qualité lorsque celles-ci doivent être transférées d’une application à l’autre. Il en résulte des applications - et des groupes d'applications - qui fonctionnent comme des îlots de données.
Ces applications étaient considérées comme les meilleures de leur catégorie. Les entreprises ont pris leur décision d'acheter ou de développer ces applications selon les fonctionnalités et de son adéquation avec la fonction métier de l'entreprise.
Chaque système avait son propre modèle de données et, afin de partager les données, des interfaces complexes ont été mises en place. Cependant, étant donné la fréquence des changements, la mise à jour de ces interfaces et des données qui circulent entre les applications est devenue problématique. A cela s’ajoutait un problème : la vérification des données variait, tout comme la nécessité de transformer les données pour les rendre conformes aux formats de chaque application. Beaucoup de ces applications sont devenues si personnalisées que leur documentation originale est devenue caduque. Et la qualité des données n'a pas bien résisté à ces changements.
Accroître la complexité
Pendant ce temps, de nouveaux langages sont apparus et de nouveaux systèmes d'exploitation ont été lancés. L'IT n'arrivait pas vraiment à suivre l'évolution de la technologie. En réponse, un nouveau type de logiciel de contrôle IT a été créé : l’émulation. Cela a permis aux environnements logiciels d'imiter les versions antérieures d’OS et a permis aux anciennes applications de continuer à être utilisées. De la complexité supplémentaire et des problèmes de qualité des données n'ont cessé de s'accumuler.
La situation était en grande partie identique avec les grands systèmes de bases de données. Ceux-ci étaient modifiés pour répondre au besoin croissant de données supplémentaires et de leur stockage. Les entreprises ont acheté plusieurs produits et ont conçu des bases de données pour les besoins d’applications uniques ou de petits groupes d'applications. Globalement, cette approche a créé des situations plus complexes et cela a entraîné des problèmes de gestion de la qualité des données auxquels la plupart des entreprises sont encore confrontées aujourd'hui.
AI et RPA
Que peut-on faire pour alléger le fardeau du nettoyage des données issues de legacy ? Bien qu'il n'y ait pas de solution unique, il est possible d’utiliser le RPA et l'IA pour automatiser la tâche et consolider les données.
La réconciliation des données nécessitera toujours une intervention. Mais l'objectif est de la limiter et de réduire l’examen manuel.
Le RPA et ses robots imitent le comportement d’une personne. Toute sa logique utilisée pour identifier la bonne version des données est intégrée dans des ensembles de règles que les robots exécutent. Des règles sont également établies pour s'appliquer à toutes données supplémentaires susceptibles d’être extraites pour aider à la prise de décision.
Un bot peut être construit pour parcourir une base de données (quel que soit l'outil qui a été utilisé pour concevoir et développer la base de données), identifier le format des données, et enregistrer les informations pour les bases de chaque application. Le bot compare ensuite les données et l'heure de leur dernière modification et peut indiquer des écarts ou anomalie qu’il convient alors de prendre en compte. Au fur et à mesure que cela est traité, les méthodes de résolution deviennent une règle ou un ensemble de règles qui sont alors ajoutés au bot pour une utilisation future. De cette façon, les problèmes liés à la qualité des données sont utilisés pour apprendre aux robots à être meilleurs.
Création et test des robots RPA
La première version des robots ne constitue qu’un point de départ : il est peu probable que toutes les règles nécessaires à l'exécution d'une activité soient identifiées dans sa première version. Pour évoluer, les robots doivent parcourir plusieurs bases de données et améliorer leurs règles – cela deviendra également plus fluide avec la montée en compétences de métiers et de l’IT.
Dans un premier temps, toutes les correspondances dans ces multiples bases sont identifiées par le bot et examinées manuellement pour s'assurer que les règles sont correctes et bien appliquées. Les données qui en ressortent sont corrigées manuellement et les corrections utilisées pour déterminer comment les règles du bot devront être à leur tour adaptées. Cette approche permet aux règles du bot d'évoluer et de répondre à des situations plus complexes au fil du temps.
Une fois testé sur un système de gestion de base de données, le robot RPA peut être mis en marche. Ce processus de nettoyage des données peut être appliqué à des groupes de systèmes qui ont la plupart du temps des données en commun. Cela permettra de créer une bibliothèque pour commencer, qui pourra ensuite être utilisée pour comparer les données disparates entre d'autres bibliothèques. La meilleure partie ? Un bot peut être exécuté en permanence jusqu'à ce que toutes les données soient passées au crible et nettoyées.