Big Data : Microsoft rapproche Azure et Windows Server de Hadoop
Dernière initiative d'interopérabilité de Microsoft. Pour attaquer le segment des données non structurées dans un environnement Big Data, Microsoft a décidé de développer des déclinaisons du framework Open Source Hadoop pour ses environnements Windows Azure et Windows Server. Les travaux seront effectués en collaboration avec Hortonworks qui servira au final de liaison avec la fondation Apache.
"La donnée est la nouvelle monnaie du Cloud." C'est par cette maxime assez philosophique que Microsoft par la voie de Julien Lesaicherre, responsable de la plate-forme Windows Azure a justifié l'offensive de l'éditeur Redmond dans le monde du Big Data, lors de sa conférence Pass Summit qui se tient du 11 au 14 octobre à Seattle. Une conférence dédiée à la gestion de la donnée et à SQL Server, notamment.
En point d'orgue, Microsoft a annoncé rejoindre le cercle de moins en moins fermé des éditeurs se ralliant à la cause Hadoop, ce framework Java de la fondation Apache pour le développement de systèmes de fichiers distribués et de gestion de données en volume. Le groupe a en effet annoncé son intention de créer des déclinaisons de Hadoop pour ses propres technologies Cloud et On-premise, Windows Azure et Windows Server. Une initiative qui s'inscrit dans ses chantiers d'interopérabilité.
Pour Julien Lesaicherre, ce partenariat s'inscrit dans un ambitieux plan de Microsoft, qui consiste à proposer des solutions de gestion de données en volume, structurées et non-structurées, tant à l'intérieur qu'à l'extérieur de l'entreprise, et dans un contexte multi-environnement. Hadoop connectera ainsi l'analyse et le traitement de données non structurées aux environnements Microsoft et proposera aux clients de la marque une option supplémentaire, qui rappelons le, connait un important buzz actuellement.
Pour réaliser ses travaux d'interopérabilité d'Hadoop avec le monde Windows, Microsoft s'est associé à la société Hortonworks, une division Hadoop fraichement créée par Yahoo (en partenariat avec Benchmark Capital) qui réunit les employés cadres de Yahoo travaillant sur le framework Java en interne. Ils forment également le noyau dur de la communauté qui contribue aux évolutions technologiques de Hadoop. Microsoft entend s'appuyer sur ces compétences pour accélérer les développements de sa pile Hadoop afin de pouvoir sortir une première version de test avant la fin 2011 pour Windows Azure, et pour la mi-2012 pour Windows Server, indique Julien Lesaicherre.
Ce n'est pas la première fois que Microsoft s'intéresse à Hadoop. Début septembre, Redmond avait annoncé les versions de test de deux connecteurs, Hadoop Connector for SQL Server Parallel Data Warehouse et Hadoop Connector for SQL Server, permettant ainsi de connecter les deux mondes. Mais cette fois-ci, il ne s'agit pas de passerelles, explique Julien Lesaicherre, mais bien "des fonctions BI, qui tireront partie de fortes synergies entre les deux technologies".
Une interopérabilité souhaitée
"Hadoop est la plate-forme de choix pour l'analyse des données en volume et ce à faible coût", explique-t-il, mettant également en avant son importante communauté de développeurs et d'utilisateurs. Mais surtout, cette même communauté "a soif d'innover sur d'autres plates-formes, comme celles de Microsoft", raconte-t-il. "Pour se sortir des environnements classiques". Comme un clin d'oeil au monde de l'Open Source, Microsoft compte également alimenter la communauté Hadoop du fruit de ces développements. Du moins, nuance Julien Lesaicherre, "les développements seront soumis à la fondation Apache". Il faudra ensuite que l'institution Open Source les accepte, en effet.
Microsoft confirme enfin poursuivre ses investissements autour de Linq to HPC, qui peut être considéré comme un projet concurrent à Hadoop. "Nous allons d'ailleurs sortir une première version avant la fin de l'année, précise-t-il. Mais une unique solution ne convient pas à tout le monde". Surtout lorsque l'on parle de Big Data et de données non structurées. Et dans ce cas, qui d'autre que Hadoop pour aborder le problème.
En complément sur LeMagIT :
La NSA soumet sa base de données Hadoop à la Fondation Apache