Scanrail - Fotolia
Google dévoile un NAS en cloud qui supporte 16 Go/s et 480 000 IOPS
Le service Filestore High Scale proposera aussi jusqu’à 320 To de capacité par volume. Il se destine aux applications critiques qui migrent vers le cloud sans être réécrites pour le stockage objet.
Google GCP lance cette semaine une préversion de son très attendu service de fichiers Filestore High Scale, qui repose sur des technologies issues du rachat en 2019 d’Elastifile. Par rapport aux services Filestore existants, ce nouveau NAS en ligne offre de grandes capacités avec des performances très élevées qui ne se dégradent jamais.
À date, ses volumes peuvent atteindre 320 To de capacité. Ils permettent aux machines virtuelles du service Compute Engine, comme aux containers du service Kubernetes Engine, d’accéder à leurs fichiers à la vitesse de 16 Go/s et de lire ou d’écrire dans leurs bases de données au rythme de 480 000 IOPS. Comparativement, les actuels services Filestore de Google sont limités à 64 To par volume. Les performances sont de 100 Mo/s et 5 000 IOPS pour le niveau de service Standard, ou 1,2 Go/s et 60 000 IOPS pour le niveau de service Premium.
L’ambition de Google est de présenter ce nouveau service de stockage comme le compagnon des traitements qui ont le plus besoin de hautes performances. L’analyse décisionnelle, le traitement d’images vidéo, la recherche génomique, la modélisation financière ou les moteurs de conception automatisée sont cités.
Marc StaimerConsultant, Dragon Slayer Consulting
« Les entreprises ne souscrivent à ce genre de stockage en ligne que lorsqu’elles exécutent des applications depuis le même fournisseur de cloud, pour limiter les latences dans les accès vers les données et ainsi préserver les performances. Le problème est que ces NAS très performants en cloud coûtent cher : sur trois ans, nous estimons qu’ils coûtent dix fois le prix d’un NAS sur site », commente Marc Staimer, consultant chez Dragon Slayer Consulting.
Selon lui, le tarif définitif de Filestore High Scale devrait être similaire à celui des services de NAS proposés par les autres cloud publics, soit environ 30 centimes/Go par mois. C’est également le tarif du service Filestore Premium. Le service Filestore Standard coûte quant à lui 20 centimes/Go par mois.
« Il faut donc mesurer le bénéfice d’un tel service en comparant son prix aux avantages qu’il offre en termes d’élasticité. Certaines entreprises veulent juste sortir de la logique du datacenter. Mais d’autres souhaitent pouvoir partager leurs données avec des utilisateurs répartis aux quatre coins du monde et, ce, depuis un volume qui conserve toujours le même nom. Dans ce cas, un tel NAS en ligne prend tout son sens », ajoute-t-il.
Approuvé par des laboratoires de recherche
Christoph Gorgulla, un chercheur de la Harvard Medical School, utilise GCP, le cloud public de Google, pour exécuter l’application VirtualFlow qu’il a développée afin tester l’effet d’une protéine sur des milliards de molécules. Le but de cette application étant de découvrir des traitements pour diverses maladies, elle est actuellement utilisée dans le cadre des thérapies contre le Covid-19. En ce qui concerne Filestore High Scale, Christoph Gorgulla en est surtout un bêta-testeur.
« Le stockage de VirtualFlow nécessite un système de fichiers capable de supporter la charge que génèrent simultanément des milliers de machines virtuelles. Nous n’aurions pas eu le temps de déployer, d’administrer et de monitorer le cluster de NAS qui aurait été nécessaire. Filestore High Scale nous a soulagés de ce fardeau », dit-il.
Son équipe avait initialement essayé le service Filestore Premium de Google et l’avait jugé bien trop peu puissant. Avant que Google l’incite à tester en avant-première Filestore High Scale, Christoph Gorgulla s’était résolu à déployer un stockage sur site avec des systèmes spécialisés, comme Lustre, Quobyte, Ceph, BeeGFS, PingFS et OrangeFS. « Il s’est avéré que Filestore High Scale était lui aussi extrêmement performant et qu’il apportait en sus des possibilités de personnalisation intéressantes, d’autant qu’elles sont configurables depuis une interface graphique particulièrement attrayante et simple. »
Il concède que Filestore High Scale coûte en définitive plus cher que les autres options. « Mais c’est un supplément de prix que nous acceptons de payer dès lors que ce NAS en cloud nous permet d’étendre la capacité en un clignement de cils dès que nous en avons besoin », ajoute-t-il.
Des offres de NAS en cloud de plus en plus matures
À terme, Filestore se déclinera donc en trois niveaux de service, chacun partageant ses contenus au protocole NFS et étant pilotable depuis la même API que les autres. Techniquement, il s’agit de promettre aux entreprises qu’elles pourront passer d’un niveau à l’autre sans avoir à changer leurs applications. En revanche, elles devront toujours copier à la main les données entre les différents niveaux : aucune gestion automatique des tiers de stockage n’est prévue pour l’instant.
Les niveaux de service Standard et Premium pourraient à terme être renommés Filestore Basic HDD et Filestore Basic SSD, respectivement. Puisqu’il s’agit des services NAS historiques de GCP, aucun d’eux n’utilise aujourd’hui la technologie d’Elastifile. Néanmoins, des bruits courent : il se pourrait que Google les revoie entièrement bientôt pour augmenter leur capacité maximale par volume.
Les concurrents de GCP ont tous récemment renforcé leur service de stockage de fichiers. Chez AWS, en plus d’EFS, pour le partage en NFS et de FSx for Windows File Server, pour les partages en SMB, on trouve à présent FSx for Lustre pour les applications les plus critiques. Ajoutons à cela l’existence sur AWS de services NAS hautement performants et élastiques qui sont fournis par NetApp et Qumulo. Sur Azure, le NAS de base Azure Files est secondé à présent par Avere vFXT for Azure, un NAS capable d’utiliser des VMs Azure en guise de cache pour améliorer encore plus les performances.
Juan OrlandiniInsight Entreprises
« Cela dit, la consommation des services de fichiers en cloud reste pour l’heure très inférieure à l’utilisation de NAS physiques sur sites. La raison est que les développeurs qui écrivent leurs applications au format natif du cloud préfèrent travailler avec du stockage objet qui est accessible via des API », indique Juan Orlandini, spécialiste de la transformation des datacenters pour le cabinet de conseil Insight Entreprises.
Il s’attend néanmoins à voir les choses évoluer différemment. « Le fait est que les entreprises déplacent de plus en plus leurs applications historiques, celles conçues pour utiliser un NAS sur site, vers le cloud. Je pense que nous allons donc observer au cours des prochaines années un nivellement de la consommation des différents protocoles », conclut-il, en se refusant à croire que le stockage objet puisse un jour supplanter les NAS.