Snowflake avance vers Azure
Le spécialiste de l’entrepôt de données 100% Cloud a précisé que son portage vers Azure arriverait dans quelques mois. Cela alimentera sa stratégie de conquête des grandes entreprises
A l’occasion d’un événement qui s’est déroulé la semaine dernière à Paris, Benoit Dageville, l’un des deux français co-fondateurs de Snowflake, a confirmé que le portage sur Azure de l’entrepôt de données natif pour le Cloud aurait lieu « dans les mois à venir » et serait disponible à Amsterdam pour l’Europe.
Snowflake fait partie de ces pure-players du Cloud. La société, née en 2012, et dont le bureau français s’est ouvert à la fin 2017, a développé une solution d’entrepôt de données dont la particularité est d’exploiter les caractéristiques d’élasticité et de scalabilité propre au Cloud public – et uniquement. L’autre particularité est qu’elle a sa tête un cadre historique de l’IT : Bob Muglia, ex patron des activités Server & Tools de Microsoft. Pour assoir son modèle technique, qui consiste à séparer les couches stockage et celles en charge du traitement des données, Snowflake s’appuie depuis sa conception sur la mécanique AWS ainsi que certains de ses services Cloud (comme EC2 pour virtualiser les instances Snowflake en charge du traitement et S3 pour le stockage).
Mais cette proximité native avec le Cloud d’AWS ne sera pas un problème dans la migration de la technologie vers Azure, assure Benoit Dageville. « On a bien fait attention à ne pas utiliser des sous-systèmes dédiés (spécifiques à la plateforme AWS, NDLR). On utilise EC2 et le blob storage ; ce qu'ont tous les Cloud », lance-t-il. Toutefois, ce portage a nécessité un « effort signiticatif, car il a fallu créer des couches d'abstractions. Azure ne scale pas comme AWS », analyse-t-il, expliquant que « le Blob Storage sur Azure ne scale comme un bucket AWS ».
Un autre chantier porte aussi sur la sécurité, comme la connexion avec Active Directory. Toutefois aujourd’hui cela est en théorie déjà possible, grâce à la fédération d’identité déjà intégrée à Snowflake.
« Les clients nous demande Azure parce que tout leur écosystème est sur Azure », souligne-t-il. D’ailleurs, confie-t-il, les outils développés pour AWS par Snowflake seront à terme disponibles pour Azure. A commencer par Snow Pipe, un outil d’ingestion de données. En fait, un trigger sur S3 permet de détecter automatiquement un fichier et de l’ingérer immédiatement dans Snowflake. On remarque par ailleurs que des points d’intégration entre Azure Blob Storage et Snowflake sur AWS sont aujourd’hui largement possibles, comme l’indique ce billet de blog.
Aller chercher les grandes entreprises
Pour Snowflake, ce portage vers Azure est une étape dans sa conquête du marché. Si initialement, la société américaine s’est positionnée sur le segment de l’AdTech ou encore des entreprises ayant une forte appétence pour le Big Data, la prochaine étape portera sur la conquête véritable des grandes entreprises, note Benoit Dageville.
Pour y parvenir, Snowflake a d’ailleurs levé 263 millions de dollars en janvier et accueilli à son capital le fonds d’investissement américain Sequoia Capital. Cet argent servira ainsi à alimenter cette stratégie, car en face, la concurrence est constituée de mastodontes, comme Teradata, Netezza, Vertica, Microsoft et AWS. « Les grosses entreprises, qui ont des systèmes traditionnels, migrent vers le Cloud et considèrent donc les prestataires sont donc déjà sur le Cloud », explique le responsable, comptant bien mettre en avant l’approche Cloud-native de Snowflake.
Cela passera par des développements, confie à demi-mot Benoit Dageville. « On investit dans des technologies de réplications entre régions AWS ; ce qui souvent est une contrainte pour les industries régulées », lance-t-il enfin.