Etat du monde IT : le Big Data, une offre qui se forme

En 2011, un des buzzword a bien été le Big Data. Ce concept de traitement et d’analyse des données en volume, qu’elles soient structurées ou déstructurées, a livré les contours d’un éco-système qui se dessine, au sein duquel les briques technologiques apparaissent et les éditeurs se positionnent. Hadoop reste la technologie fédératrice, les acteurs affutent encore leurs offres.

Big Data, analytique, décisionnel, BI, analyse prédictive...en 2011, le traitement et l’analyse des données en volume auront été sur les lèvres de nombreux acteurs de la sphère IT. Les éditeurs, bien sûr qui voyant croitre la masse de données produites par les entreprises ont décidé de se ranger derrière ce nouvel étendard du Big Data afin de pousser intelligemment des offres technologiques, plus ou moins adéquates, mais également les entreprises, qui d’une façon pragmatiqus, doivent aujourd’hui composer avec des données qui jusqu’alors n’avaient que peu pénétrer le périmètre du SI : les données non structurées.

Pourquoi . Car outre la généralisation du Cloud Computing, 2011 aura également été témoin de la montée en puissance d’un autre concept : celui de la consumérisation de l’IT, ou du concept de BYOD (Bring your Own Device). Un concept qui propulse à l’intérieur des environnements professionnels des données provenant d’environnements particuliers, notamment de la mobilité, des réseaux sociaux, des plates-formes vidéos, etc...Un appel d’air de données donc, mais de données nouvelles qui ne remplissent pas les conditions très formalisées des bases de données.

L’heure est donc à leur prise en compte. Et c’est désormais sur ce terrain que le Big Data s’installe. Le Gartner a par exemple inclus le concept dans son traditionnel Hype Cycle 2011 et l’a classé parmi les 10 technologies stratégiques pour 2012. Il est donc logique que le marché se mette en place. Et c’est principalement ce qui aura marqué 2011.

Hadoop : l’éco-système des pure-players explose

Au départ fut Cloudera et Datameer. L’éco-système commercial d’Hadoop au début 2011 était essentiellement composé de start-up qui, sentant le vent du Big Data et de l’intérêt de l’Open Source dans ce secteur - celui du traitement des données non structurées - ont basé leur modèle économique sur une déclinaison commercial de Hadoop. Mais très vite, le marché attira d’autres acteurs : si on connaissait l’implication de Yahoo dans la communauté du framework Open Source de la fondation Apache, on ne lui prêtait assez peu d’ambition commerciale en la matière. Pourtant le portail a décidé bel et bien en 2011 de créer une division Hadoop, baptisée Hortonworks qui allait venir donner le change aux start-up en place. Et cette création représente un signal clair pour le marché. Car outre la concrétisation de l’implication de Yahoo dans Hadoop, HortonWorks est également né du soutien du fond d’investissement américain Benchmark Capital. Preuve que derrière Hadoop, il y a une logique financière dans le Big Data. Dans cette même idée, on se rappelle également l’intérêt des business Angels de Kleiner Perkins dans Datameer.
Enfin, autre signe de l’intérêt commercial d’Hadoop, l’arrivée d’EMC sur ce segment, qui profite du rachat du spécialiste du data warehouse Greenplum en 2010, désormais la division base de données et business Intelligence du géant, pour lancer en 2011 sa propre déclinaison Hadoop.


Hadoop : les gros du secteur y passent

Comme une reconnaissance du marché, en 2011, Hadoop a également attiré les ténors de l’industrie IT qui ont placé ce framework au coeur de leur offre de traitement des données en volume. Une des raisons invoquées : son coût principalement, nous rappelait James Markarian, vice président exécutif et directeur technique d'Informatica confirmant ainsi que le framework «contribuait à modifier le modèle économique du Big Data". Ajoutant que sa flexibilité - Open Source oblige - était aussi un critère d’adoption. On comprend alors mieux les éditeurs, comme Informatica, qui ont décidé d’ajouter le support Hadoop à leur pile Big Data. Talend, Oracle, Teradata, IBM, Sybase, EMC (via Greenplum) et IBM, pour ne citer qu’eux. Sans oublier Microsoft, qui à la surprise générale, convoqua Hadoop en pleine conférence sur SQL Server pour annoncer au monde entier le développement - en collaboration avec Hortonworks - de versions du framework pour Windows Server et bien sûr Azure.


Big Data et analytique : on pose ses jalons


Si, en matière de Big Data, 2010 avait été témoin de rachats d’envergure, à l’image de Netezza pour IBM ou Greenplum pour EMC, 2011 aura également connu ses opération de croissance extérieure. On se souvient alors de HP, dont les acquisitions de Vertica dans le décisionnel et du très polémique Autonomy nous ont rappelé que le Big Data était bien un édifice construit pour durer. Comment ne pas mentionner le rachat de Platform Computing par IBM ou celui d’Aster Data par Teradata en mars dernier.

Et selon les analystes, ce ne serait qu’un commencement. Car en 2012, l’offre Big Data devrait se consolider, et les éditeurs combler encore les manques de leur technologie. Si la tendance vers les plates-formes unifiées se concrétisent, comme semblent le penser EMC et HP par exemple, l’intégration de technologies de traitement de données en volume à d’autres briques pourraient bien se produire. Et pourquoi un rapprochement du  BPM (Business Process Management), ou du MDM (Master Data Management) ?

Pour approfondir sur Editeurs