Big Data Paris : Snowflake prévoit une migration sur Google Cloud Platform
Initialement conçu sur AWS puis décliné sur Azure, l’entrepôt de données poursuit purement sa stratégie de placement multi-cloud avec une migration en cours sur Google Cloud Platform.
Snowflake a confirmé que les déploiements de son entrepôt de données 100 % cloud sur la plateforme Cloud de Google (Google Cloud Platform – GCP) étaient programmés. La société, dirigée par Bob Muglia, son Pdg, et fondée par deux architectes français (ex Oracle), a initialement bâti sa technologie sur une infrastructure AWS afin d’exploiter toutes les spécificités du cloud et de les apporter à un environnement d’entrepôt de données. Snowflake a ensuite adapté sa technologie pour l’adapter à l’infrastructure Azure.
L’une des particularités de Snowflake consiste à proposer une architecture calée sur les principes du cloud, afin de bénéficier des caractéristiques de dimensionnement, certes, mais également de consommation à l’usage. Pour cela, Snowflake s’appuie sur les services de stockage objet des plateformes (S3 chez AWS, Blob Storage chez Microsoft Azure) où sont centralisées les données structurées ou semi-structurées. Des capacités virtuelles de traitement de données (en fait du compute) – warehouse dans le vocabulaire de Snowflake – y sont ensuite appliquées et peuvent être dimensionnées en fonction des besoins. La mécanique Snowflake est donc imbriquée aux services de la plateforme sur laquelle elle s’adosse.
La migration vers Azure avait ainsi demandé plusieurs mois de développement. Mais celle vers GCP devrait être plus rapide, explique Ivan Smet, patron Europe du Sud de Snowflake. Les développements pour Azure ont permis d’accélérer ceux pour Google en identifiant par exemple les points clés de la migration. Le déploiement sur les différents types de zones en est notamment un.
Pour l’heure, la migration vers GCP de Snowflake n’en est qu’au commencement, assure Benoit Dageville, co fondateur et CTO de Snowflake, mais « je serai étonné que cela n’arrive pas cette année ». Il faut dire que la stratégie de la société est justement d’être installée sur tous les clouds et de « permettre aux systèmes Snowflake d’être agnostiques en matière de cloud ». L’arrivée sur GCP est donc une évolution naturelle.
Des travaux sont d’ailleurs en cours pour concrétiser cette approche muti-cloud. La société teste par exemple (dans le cadre d’une Private Preview) des capacités de réplication entre 2 régions, mais aussi d’un cloud à l’autre, indique encore le responsable. On pourra par exemple répliquer des données d’une région Azure à une région AWS. De même, Benoît Dageville laisse entendre que des intégrations entre Snowflake et des services cloud pourraient être plus fortes, si ceux-ci sont présents dans la même région. Cela pourrait se traduire par rapprocher étroitement des services de Machine Learning et l’entrepôt de données, réfléchit-il.