BI 201x : l’an 4 de la Business Intelligence ? (Partie 3)
En dépit de la crise, l’intérêt pour la business intelligence ne s’est pas démenti et les demandes côté métiers se font toujours aussi pressantes. A la demande du MagIT, Jean-Michel Franco, expert de la BI chez Business & Decision, revient dans une série de quatre articles sur l'histoire, l'évolution et les enjeux des technologies BI. Troisième partie : cinq nouvelles tendances qui marqueront les années 2010.
6. Quand l’information dite non structurée enrichit les systèmes d’information de l’entreprise.
9. La BI embarquée : quand la décision rejoint l’action.
Les cinq premières tendances étudiées :
1. La gestion de la performance d’entreprise rejoint la Business Intelligence.
Tendance #6 : Quand l’information dite non structurée enrichit les systèmes d’information de l’entreprise.
L’enjeu : La business intelligence s’alimente traditionnellement de données des systèmes d’information de l’entreprise, celles qui sont renseignées dans le cadre de l’exécution de processus de gestion bien définis. Malheureusement, même si les systèmes d’information automatisent un nombre croissant de processus, de nouvelles sources d’information précieuses se constituent et se propagent en parallèle, au travers de tout un ensemble de canaux : mails, documents créés via des tableurs, traitements de texte, outils de présentation, sites web ou réseaux sociaux… Toutes ces informations, souvent précieuses, parfois sensibles, sont stockées, partagées et diffusées hors du contrôle du système de gestion de l’entreprise, dans des documents dits non structurés. Intégrer ces informations au système d’information, les fédérer, les protéger et les rendre accessibles à la bonne personne au bon moment devient donc un enjeu critique.
Longtemps considéré comme un Graal difficile, voir impossible à atteindre, notamment du fait du manque de maturité des technologies et des volumes de données à considérer, l’intégration des données non structurées avec celles déjà gérées dans le système d’information est devenue possible ; le data warehouse semble le lieu idéal pour fédérer ces informations, dans la mesure où il a permis de constituer un dictionnaire d’objets métiers utiles à la prise de décision. Il référence en effet de manière assez précise, les clients, les organisations, les produits, les employés, etc. Cet ensemble de méta données et de données de référence est à même de constituer le thésaurus, qui lorsque « matché » à des documents de tous types, permet d’en tirer la substance : on peut par exemple découvrir que tel document s’avère être un courrier émis par le client « Durand » et qu’il concerne une réclamation émise au sujet d’un retard à la livraison d’un produit X. Ainsi, les pré-requis sont rassemblés pour donner du sens aux données dites non structurées et les rendre exploitables en toute sécurité par le plus grand nombre.
Un exemple concret de mise en application de cette tendance : Dans cette société du secteur de l’industrie, la relation client est au cœur des débats. Le système CRM est en place depuis plusieurs mois maintenant et il a constitué un grand pas en avant pour en termes de partage de la connaissance sur le client. Toutefois, il n’a pas permis d’atteindre le but initial d’une vue partagée à 360° : certaines données clients sont situées ailleurs que dans le système CRM, dans le système de facturation par exemple. D’autres données critiques comme certains échanges de courriers avec les clients ou les résultats des enquêtes de satisfaction ne sont pas non plus intégrées au système CRM.
Enfin, ce système très efficace pour capter l’information et supporter les processus de gestion de la relation client, l’est beaucoup moins quand il s’agit de restituer l’information. L’entreprise a donc développé une application basée sur un moteur de recherche (on parle aussi de SBA, pour Search Based Application) permettant aux utilisateurs, selon leurs profils et leurs droits, d’obtenir une vue à 360° sur le client. Elle rassemble des informations telles que les encours, le plan de compte et les prévisions de vente pour ce client, le résultat des enquêtes de satisfaction, les derniers problèmes ouverts auprès des équipes de maintenance, un diagnostic de l’état de vétusté du parc… Cette application accessible à tous dans l’entreprise, en langage naturel et ne nécessitant pas la moindre formation à ainsi constitué le dernier kilomètre pour atteindre cette vue client à 360°.
Tendance #7 : La gestion de l’information, au-delà de la BI : la dimension informationnelle, chaînon manquant des architectures SOA.
L’enjeu : La BI, par nature, est un endroit où les problèmes de qualité de données sont mis en lumière. Dans la mesure où ceci est « une douleur », les équipes projets, mais aussi celles qui supportent le système au quotidien, ont établi avec le temps un savoir faire pour modéliser les données, les consolider à partir de sources hétérogènes, gérer leur qualité, responsabiliser les métiers pour les améliorer …
Désormais, l’information est devenue une ressource précieuse, plus seulement pour accompagner l’aide à la décision. Les données incomplètes, incorrectes ou difficiles d’accès sont à l’origine de bien des dysfonctionnements : par exemple, dans quasiment tous les projets informatiques, la qualité de données figure systématiquement dans le palmarès des trois problèmes les plus fréquemment rencontrés. Il est donc devenu indispensable de mettre en œuvre des programmes transverses pour éviter l’introduction de données incorrectes ou incomplètes dans les systèmes, consolider les données et organiser leur distribution…
Les données doivent aussi être auditables, corrigées quand elles s’avèrent corrompues, documentées, détruites quand elles sont caduques... A l’instar de programmes comme Six Sigma qui ont permis aux entreprises d’améliorer considérablement la qualité de leurs produits ou de leurs processus, ces initiatives sont mises en place pour mieux maîtriser la qualité des données, alimenter les applications de gestion avec des référentiels de données dont la cohérence est maitrisée, responsabiliser chacun sur les conséquences de la non qualité de l’information, transmettre les informations entre les applications en mode « juste à temps »… On parle alors d’Enterprise Information Management Information, de Master Data Management, de programmes de gouvernance des données…
L’entrepôt de données, situé jusque là en aval des systèmes d’information stratégiques de l’entreprise à seule fin d’assurer la distribution d’une information, devient l’usine de production de l’information (ou Corporate Information Factory), en charge de l’assemblage de l’information et de sa distribution dans toutes les applications de gestion de l’entreprise.
Ainsi, les équipes en charge des initiatives décisionnelles apparaissent les mieux placées pour ce qui pourrait bien être les futurs grands chantiers des systèmes d’information de demain. La mission est ambitieuse, mais c’est aussi un passionnant mais difficile challenge. Car s’il ne fait aucun doute que les processus de gestion sont l’affaire de l’entreprise, l’information est de son côté souvent considérée comme un bien propre à chaque individu ou groupe de travail : une gestion du changement importante est nécessaire pour accompagner ces grands chantiers, ce qui explique sans doute pourquoi les entreprises qui s’y engagent aujourd’hui le font avec beaucoup de prudence.
Un exemple concret de mise en application de cette tendance : L’industrie mécanique se caractérise par la grande complexité des données produits et composants à manipuler : elles sont en quantité très importante, d’origines diverses, interdépendantes entre elles, et doivent être suivies tout au long de leur cycle de vie. Ces données doivent en outre être partagées par un grand nombre d’acteurs diversifiés : R&D, marketing, ventes, SAV, achats, clients, fournisseurs. C’est à cette complexité que les équipes métier et informatique ont choisi de se confronter en raison des problèmes de qualité de données de plus en plus sensibles auxquels elles étaient confrontées au quotidien. Un programme en plusieurs étapes est ainsi définit.
La première étape, de très courte durée, permet un audit des données existantes tout en corrigeant de manière automatisée les problèmes de qualité les plus basiques. Ainsi, l’entreprise a une vue plus précise de la dimension du problème, tout en faisant état d’une amélioration concrète en termes de qualité de données.
Une seconde étape se focalise sur la dimension organisationnelle. Elle vise la création d’une équipe de gouvernance des données, en charge de toute la chaine logistique informationnelle, depuis la matière première (c'est-à-dire les données d’origine telles qu’elles sont récupérées dans les systèmes) jusqu’à leur diffusion en passant par tout le processus de transformation. Une chaine de responsabilités est ainsi définie.
La troisième étape permet enfin d’outiller ce processus à l’aide d’outils de Master Data Management (MDM) en complément des outils de gestion de la qualité de données et de gestion des mouvements de données déjà utilisés dans les étapes précédentes.
Tendance #8 : La BI, au cœur de l’économie de fonctionnalités : quand l’information devient un avantage compétitif vis-à-vis des clients ou des citoyens
L’enjeu : Selon Wikipedia, « l’économie de fonctionnalité est un concept du champ du développement durable et de l'économie, qui consiste à faire payer un service (transport, chauffage, éducation, culture, soins, etc.) ou l’usage d’un bien plutôt que ce bien lui-même. […] Par exemple au lieu d'acheter une automobile, le consommateur achète le service consistant à être transporté […] d'un point à un autre. »
Cette économie se développe dans tous les secteurs, a fortiori pendant cette période de crise ou les entreprises ont vu le revenu de leur activité de services peu impacté alors que la vente de nouveaux produits décroissait fortement. Elles ont même bouleversé certains secteurs : qui aurait pu penser par exemple il y a quelques mois qu’on pourrait choisir son téléphone non plus sur des caractéristiques propres mais en fonction des applications qu’il permet de faire fonctionner ?
Ces stratégies s’avèrent de plus intimement liés aux principes de développement durable : il s’agit de se différencier sur les usages plutôt que sur le produit proprement dit, en permettant au client de consommer mieux , sans pour autant sacrifier le chiffre d’affaire. Michelin et Xerox sont des exemples souvent cités pas les exemples d’entreprises qui son parvenues à améliorer la durée de vie de leurs produits tout en pérennisant la relation avec leurs clients avec ce type de modèle.
La Business Intelligence a un rôle clé à jouer dans ce modèle économique car elle va permettre à un client de mieux utiliser le service qui lui propose l’entreprise ou l’organisation publique. Une banque utilisera la BI pour permettre à son client de mieux gérer ses ressources financières et de mettre tous les atouts de son côté lorsqu’il constitue son dossier de demande de prêt ; un fournisseur de biens culturels orientera ses clients vers des « produits » qu’il est susceptible d’apprécier ; un fournisseur d’électricité, d’essence, de fuel ou de gaz permettra au consommateur d’éviter de surconsommer…
Un exemple concret de mise en application de cette tendance : malgré ces cycles de production assez longs, l’industrie aéronautique n’échappe pas aux fluctuations liées aux périodes de crise ou de reprise. Après plusieurs années de croissance soutenue, cette entreprise doit faire face à une situation plus difficile ces derniers mois. L’activité de service n’est par contre pas touchée par cette crise, bien au contraire : les clients cherchent à préserver leur flotte et à prolonger leur durée de vie.
Voilà pourquoi un des plus importants projets lancé par cette entreprise en 2009 a concerné la gestion de sa flotte. L’objectif est de mettre à la disposition des clients une application pour mieux anticiper les actions de maintenance préventive, analyser comment minimiser les temps d’indisponibilité lors de pannes, prolonger la durée de vie de la flotte, etc.
Tendance #9 : La BI embarquée : quand la décision rejoint l’action
L’enjeu : La Business Intelligence a gagné ses lettres de noblesse auprès des analystes, c'est-à-dire tous ceux dont le métier est de rendre compte, d’optimiser l’efficacité d’une activité… : c’est sans doute pour cela que les usages les plus aboutis de la Business Intelligence se retrouvent souvent au contrôle de gestion, au marketing ou à l’administration des ventes. Elles sont aussi en première ligne des activités de pilotage, en permettant aux décideurs de mieux planifier leur activité, de traduire leur stratégie en objectifs pour les équipes, etc.
Elle a par contre peiné à se déployer plus largement dans l’entreprise.
Pourtant, la demande est grandissante : au fur et à mesure que les processus se sont automatisés, chacun dans l’entreprise a vu son rôle évoluer. Les tâches les plus répétitives ne nécessitent plus d’interventions humaines, et tous les employés doivent désormais gérer les exceptions : faut-il honorer la commande d’un client qui a dépassé le seuil théorique de son crédit client ? La demande d’augmentation d’un employé au vu de son profil semble-t-elle justifiée au vu de sa propre performance, des benchmarks du marché et de la politique RH de l’entreprise? Ne peut-on pas dépanner un client qui demande un produit qui n’est pas en stock en lui proposant un produit alternatif ou allant réquisitionner le produit ailleurs dans l’entreprise ou chez un tiers ? Comment détecter le fraudeur potentiel qui est au bout du fil sans choquer pour autant le prospect honnête ?
Pour accompagner ces « décideurs du quotidien », la Business Intelligence doit remettre en cause certains de ses principes fondateurs. Plutôt que de se présenter sous la forme d’applications alternatives aux systèmes existant, elle doit au contraire s’y intégrer. Le décisionnel doit être embarqué dans les applications utilisées sur le terrain, qu’il s’agisse d’un centre appel, d’une application utilisée dans un magasin ou d’un entrepôt d’un grand distributeur, d’un conseiller de clientèle bancaire, d’une application de gestion des forces de vente, etc.
Ce type d’applications impose aussi de nouvelles contraintes au système décisionnel, à tel point que beaucoup de responsables décisionnels ont jusque là refusé de les prendre en charge : tout d’abord, les données doivent être accessibles en « juste à temps » avec des temps de latence inférieurs à la journée voire même en quasi temps réel, ce qui impacte fortement l’architecture du système décisionnel. Elles doivent aussi aller plus loin que les applications décisionnelles traditionnelles dans le processus de prise de décision : il ne suffit pas d’alimenter l’utilisateur en information, mais aussi de lui proposer la bonne action à engager face à son problème.
Un exemple concret de mise en application de cette tendance : dans cette entreprise spécialisée dans le commerce à distance, le centre d’appel doit jouer un rôle de conseil vis-à-vis des clients qui le contactent pour passer leurs commandes. En fonction du contexte du client, de son historique d’achat, du produit qui l’intéresse, des opérations de promotions ou des disponibilités des produits en stock, une composante d’aide à la décision en temps réel à été intégrée au système de gestion de la relation client de l’entreprise.
Présenté sous la forme d’un widget en haut à droite de l’écran, l’application suggère à l’opérateur la prochaine action à proposer au client, dans un but de mieux le servir ou de générer des ventes additionnelles. Celui-ci reste libre, en fonction de la situation, de suivre les suggestions du système ou d’engager une autre action.
Tendance #10 : L’information à la Demande (Information as a Service) : décloisonner l’information des applications de gestion.
L’enjeu : Connaissez-vous la loi Chatel ? Dans l’assurance, par exemple, elle protège l’assuré pour éviter qu’il ne se retrouve sans assurance en phase de renouvellement de son contrat. Mais, dans le même temps, elle oblige l’assureur à mieux informer l’assuré pour qu’il connaisse la date limite de résiliation du contrat au cas où il ne souhaite pas le ré-engager par tacite reconduction.
Cette loi a été à l’origine de bien des contrariétés dans les directions informatiques, car elle obligeait à faire apparaitre sur les factures des informations apparant sur les contrats. Or, chez beaucoup d’assureurs, l’information était bien sur disponible dans leurs systèmes d’information mais il n’avait pas été initialement prévu de l’exposer au client dans le cadre du processus de facturation. Dans l’assurance ou ailleurs, bien des informations sont ainsi prisonnières de leur contexte d’utilisation, et la caution qu’il faut payer pour les en libérer ne fait que croitre avec le temps.
Pourtant, de nouvelles sources de valeur peuvent être mises en évidence quand l’information est utilisée sous une forme innovante, dans un contexte différent de celui qui a permis de la capter. La possibilité d’accéder l’information indépendamment de toute enveloppe ouvre de nouvelles perspectives en termes d’analyse, pour une utilisation par des personnes. Mais elle procure aussi, comme dans l’exemple de la loi Chatel, un moyen pour résoudre les lourdeurs liées aux interfaces inter-applications. Dans ce dernier cas, l’information à la demande devient alors un service d’une architecture orientée services, ou SOA.
L’Internet nous illustre tous les jours la puissance de ce concept. Les comparateurs de prix sont un exemple connu de tous. Plus récemment, on a vu apparaitre des applications combinant des services de type pages jaunes, de fonctions de géo-localisation et les technologies du GPS pour ouvrir de nouveaux horizons au commerce de proximité. De leur côté, des sites comme Webmii ou 123people nous étonne, nous font réfléchir ou frémir sur notre identité numérique publique, au moment même ou de grands acteurs comme Google ou Microsoft s’intéressent de très près à la gestion du dossier médical personnel.
Quelles sont les technologies sous jacentes à ces évolution ? Beaucoup on été évoquées précédemment au fil des autres tendances émergentes. Il convient d’y ajouter les solutions dites de méta-data management, qui permettent de décrire l’information et donc de la rendre exploitable indépendamment d’autres contextes applicatifs. On pense aussi aux solutions de fédération de données qui permettent de faire comme si les données étaient consolidées dans une base de données centralisée alors qu’en réalité elles sont réparties en plusieurs lieux dans l’entreprise ou ailleurs.
Un exemple concret de mise en application de cette tendance : promouvoir la collectivité territoriale, communiquer sur les actions politiques et rendre compte de manière transparente de leurs résultats est un enjeu pour les communes, départements, ou régions. Leur mission de service public est donc aussi de mettre à disposition des entreprises ou des citoyens installés dans la région, ou qui envisagent de s’y installer, les informations dont ils ont besoin sur la santé, l’éducation, les transports, le développement durable….
C’est pourquoi, cette région a mis en place en place un observatoire économique et social. Celui-ci fédère les informations jusque là collectées par une vingtaine d’observatoires régionaux, eux-mêmes alimentés par une cinquantaine de fournisseurs de données différents aussi variés que l’Ademe, les Assedic, le rectorat, les offices de tourismes, etc. Réalisé principalement au moyen de solutions open source, l’application met en commun les sources d’informations hétérogènes, gère leur qualité et leur rafraîchissement régulier, et les met à disposition sous différentes formes : tableaux, graphiques et analyse géographiques. Les données, librement accessibles sous la forme d’un portail sur Internet, sont également exportables et les représentations cartographiques éditables, à condition bien évidement de respecter les règles d’utilisation des données mentionnées sur le site.