Les évènements imprévus de 2016 jettent le doute sur l’analytique Big Data
Cette année a été riche de surprises dans le monde. La dernière en date étant l'élection de Donal Trump à la Maison Blanche. Pour KPMG, le prédictif en fait les frais. Voici quelques pistes et conseils aux équipes en charge de l’analyse des données pour restaurer la confiance avec leurs dirigeants.
Les facultés de prédictions de l’analytique Big Data ont connu un engouement soudain il y a quelques années. Presqu’au moment où, aux Etats-Unis ; un spécialiste des statistiques appliqués au sport – Nate Silver – a étendu son expertise au monde politique avec succès. Puis l’imprévisibilité du monde a repris ses droits.
Comme plusieurs oracles avant lui, les prévisions de Nate Silver sont souvent tombées à côté. Il n’a par exemple pas vu venir la victoire de Donald Trump à la primaire républicaine - et encore moins son accession à la Maison Blanche. Pour être honnête, il n’est pas le seul. Tous les sondeurs et tous les médias se sont trompés, avec des prévisions fausses. Et cette erreur n'est pas la seule en 2016. Cette année un carnaval de surprises a secoué le monde. La plus remarquable étant sans conteste le Brexit. Qui n’avait aucune chance d’arriver si l’on en croit les analyses a fortiori. Ou encore les élections régionales françaises qui ont vu le FN en position de l'emporter dans plusieurs régions.
La foi dans les oracles du Big Data faiblit
Résultat, l’année 2016 – qui n’est pas encore terminée - a été baptisée « Année de l’imprévisible ».
La conséquence dans le monde IT est de faire légèrement dégonfler la baudruche de l’analytique. Pourquoi ? Parce que tout comme des prévisions réussies – celles de Nate Silver dans un premier temps – ont créé un attrait des directions pour le Big Data, une série de flops va, en sens inverse, les faire douter.
Une étude de KPMG suggère d’ailleurs que cette confiance est déjà en train de fléchir. Bien que les responsables de l’analyse aient travaillé dur pour améliorer la qualité des données des entreprises, les directions générales, elles, continuent à avoir des doutes. Selon ce rapport, réalisé auprès de 400 PDG – seulement américains, il est vrai – 77 % des dirigeants ne font pas confiance à la qualité des données sur lesquelles ils fondent leurs décisions. Ce qui signifie que seul un président sur trois pense que ses projets analytiques sont réellement pertinents.
Evangéliser les décideurs
« Vous pouvez vous lancer et embaucher le meilleur data scientist de la planète, si au final les patrons ne croient pas vos résultats, cela ne sert à rien », constate Wild Ross, en charge des sujet « Data & Analytics » chez KPMG.
Wild Ross qualifie cet écart de véritable « déficit de confiance ». Les données sont plus en plus de qualité, et les projets analytiques se déploient. Mais bien souvent, les métiers n’en font rien. Dit-il.
Selon lui, il faut donc aujourd’hui évangéliser les « top managements » à l’analytique prédictif. Il ne s’agirait bien souvent que d’un problème de communication. « Quelquefois, la donnée est présentée dans une sorte de boite noire. Le message que donne l’expert en statistique est souvent : faites-moi confiance, ça va aller. Alors qu’en face, les personnes avec de l’expérience se demandent : comment est-ce que je suis sûr que ce qu’il me raconte est vrai ? Est-ce qu’on est sûr qu’il n’y a pas d’erreur dans le code (ou dans les algorithmes) ? ».
Pour combler ce fossé il faut- un - que la donnée elle-même soit bien gérée, et –deux - que l’expert en charge des analyses soit capable d’impliquer les dirigeants à chaque étape de son travail jusqu’à l’analyse finale.
Se concentrer sur la décision, pas sur l’outil
Un autre travers est d’agir avec un complexe de supériorité. Même si les managers et les métiers ne sont pas des statisticiens, les regarder de haut parce que leurs compétences mathématiques sont limitées est malvenu et contre-productif. D’autant plus qu’une stratégie analytique peut très bien se passer de Data Scientist. « L’analytique est un effort collectif. Il ne s’agit pas de savoir qui est le plus intelligent dans la salle. C’est un travail d’équipe », avertit Wild Ross.
Un autre travers de l’analytique Big Data est dénoncé par des personnes comme James Taylor, PDG de Decision Management Solutions. Pour lui, les organisations se concentrent trop sur la technologie pure, sur les nouveautés IT, et laissent trop de côté la prise de décisions en elle-même.
Pour le dire autrement, James Taylor a vu beaucoup de projet analytique qui n’aide pas à la décision.
Son conseil ? « Commencer, dès le départ, avec à l’esprit qu’il vous faut une décision ». Sans ce mantra, il est peu probable que le data scientist pose véritablement la bonne question aux données.
Pire « trop souvent, la donnée est analysée et présentée par des personnes qui ne comprennent absolument pas le business. Elles parlent trop rarement aux dirigeants de la manière dont leurs travaux peuvent aider à la décision – ils sont déconnectés du problème ».
Pour réussir dans le Big Data et l’analytique, les entreprises doivent donc avant tout comprendre les processus de décision. James Taylor utilise par exemple une modélisation de ces processus pour régler le problème. Il ne s’agit pas seulement d’un outil dédié aux PDG. Des unités métiers qui doivent réagir rapidement, comme les call-centers ou le marketing, bénéficient également d’une interconnexion entre l’analytique et un outil d’aide à la décision.
Se transmuter en conteurs et en passeurs
C’était prévisible. La foi dans les outils prédictifs va fluctuer au cours du temps comme les marées.
Mais l’objectif est de garder le cap. Les échecs de certaines prévisions ne doivent pas détourner les entreprises de processus de décisions qui s’appuient plus sur des informations objectives (ou les plus objectives possibles).
Pour cela, il faudra que les personnes en charge des données et de l’analytique deviennent de meilleurs passeurs et de meilleurs conteurs (ces fameux « data storytellers »). C’est à ce prix que se reconstruira la confiance avec leurs collègues et avec leurs supérieurs.