10 ans LeMagIT : La lente construction du Big Data en France
Depuis une décennie, le Big Data progresse sur le marché et trouve sa place dans les SI des entreprises. LeMagIT, témoin depuis 10 ans de cette évolution, revient sur ce mouvement qui a marqué l’IT moderne
D’un monde structuré à un monde déstructuré. En 10 ans, LeMagIT aura été témoin d’une révolution technologique et de la naissance même d’un mouvement économique : le Big Data. Formalisé à la fin des années 90 puis défini par le cabinet d’analyste Gartner dans les années 2000, le Big Data reste indiscutablement un segment très jeune qui a éclos d’une évolution des usages du numérique dans le monde. Tout comme le cloud, qui a lui aussi marqué l’ère de IT professionnel et dont la proximité avec le Big Data est évidente.
En 2010, le Big Data peuple toutes les présentations et tous les discours des éditeurs et fournisseurs de solutions technologiques, mais encore peu les SI des entreprises, comme LeMagIT a pu le montrer pendant 10 ans (Télécharger notre guide « 10 ans d’évolution du Big Data »). Si celles-ci s’interrogent sur l’intérêt à exploiter des masses de données non structurées, les fournisseurs ont déjà accroché le Big Data à leur feuille de route.
Ce qui était un « buzzword » pour l’industrie est aujourd’hui, en 2018, devenu une composante clé des SI, indéboulonnable de la transformation numérique des entreprises. Ces données sont même devenues « l’or noir » qu’il convient de raffiner pour que s’exprime toute sa puissance. Les préoccupations révélées lors de la première édition de la conférence Big Data Paris en 2012 ne sont plus les mêmes. Les entreprises en France ont bien compris l’intérêt d’associer ces données externes – qui ne font pas partie de leurs systèmes historiques – à leurs environnements. Faisant alors émerger les très précieux cas d’usage : d’abord centrés sur l’expérience utilisateurs, les cas d’usage se retrouvent désormais dans les banques, les assurances (détection de fraudes ou conseiller augmenté), la logistique et le retail, l’aérospatial et la défense. Rares sont les secteurs industriels qui ne font pas usage de données contextuelles, comportementales ou tierces pour enrichir leurs services. Autre point clé : le Big Data a aussi contribué à la naissance de nouveaux modèles économiques, accélérant ainsi son intérêt dans les entreprises.
En donnant la possibilité de créer de nouvelles sources de revenus et en soutenant les métiers, le Big Data pèse de tout son poids dans les entreprises. Le data scientist, celui qui fait parler ces données, est aujourd’hui devenu le profil le plus convoité.
De Hadoop à Spark, Kafka et consorts
Cette transformation des usages s’accompagne de celle des technologies. Car finalement, avec le Big Data, les métiers ont aussi pesé technologiquement sur les projets mis en place dans les DSI. Sans utilisation « métiers » des lacs de données (data lake) déployés par les DSI, peu de chance que le Big Data se transforme concrètement. Les technologies ont donc évolué au rythme des usages des métiers. Hadoop a d’abord symbolisé le mouvement en mettant à disposition son système de fichier distribué et sa technologie d’analyse MapReduce.
Puis est venu le temps de Spark et du temps réel, des bases de données NoSQL, de Kafka et de la kyrielle de projets – dans la grande majorité open source – qui aujourd’hui forment l’épine dorsale technologique du Big Data.
En 10 ans, le Big Data, et les acteurs du secteur, ont donc bien transformé l’essai. Si la filière Big Data souhaitée par Fleur Pellerin n’a eu que peu d’écho médiatique, le poids du Big Data sur le marché des services et logiciels en France est conséquent. Des sociétés spécialisées se sont formées et ont perduré (Dataiku, Captain Dash, Criteo, …) et les entreprises ont adopté méthodes et technologies. En 2018, le marché des services Big Data représente 1,9 milliard d’euros contre 1,39 Md€ en 2017, calcule le cabinet d’analystes Pierre Audoin Consultants. Avec un taux de croissance moyen entre 2018 et 2022 de 31,7%, la volonté des entreprises d’améliorer leur métier avec la data science va pousser le secteur.
Cloud et AI : au milieu trône le Big Data
Mais ce ne serait que le commencement. Car aidé par les services cloud (stockage, analytique, base de données), le Big Data constitue aussi un terrain fertile pour l’Intelligence artificielle, l’autre très forte tendance. Si la Big Data stocke et exploite de grands volumes de données, l’AI et ses algorithmes ont de quoi leur donner du sens et donner la parole à des données qui jusqu’à présent pouvaient se terrer dans des data lakes (swamp ?) sans usage. Là encore, l’AI a de quoi faire évoluer les technologies Big Data et vice-versa. A condition – encore une fois – que les entreprises y trouvent des cas d’usage. Sur ce terrain, il reste encore du chemin à parcourir.
Pour approfondir sur Big Data et Data lake
-
Le Grand Guide des Bases de Données (part. 2) : au-delà du relationnel
-
Saagie : du data lake-as-a-service à la gouvernance des données pour servir les métiers
-
Big Data : bienvenue dans l’ère des plateformes pour industrialiser la data science
-
Teradata et l’Open Source : la relation se structure avec Think Big et Kylo