Le Stockage flash d’entreprise va accélérer en 2017
Le stockage Flash va encore accélérer en 2017 et son adoption va progresser rapidement selon les principaux responsables techniques des fournisseurs, interrogés par SearchStorage.com. Ces derniers prévoient aussi les débuts de nouvelles technologies de stockage en mémoire.
Le stockage Flash va encore accélérer en 2017 et son adoption va elle aussi progresser rapidement si l’on en croit les principaux responsables techniques des fournisseurs interrogés par SearchStorage.com
Les CTO et autres responsables techniques des principaux constructeurs de systèmes de stockage prédisent une accélération de l’adoption du stockage Flash, du fait de la baisse des prix continue et de l’arrivée de SSD plus capacitifs. Et ils s’attendent aussi à voir les performances bondir du fait de l’arrivée d’une nouvelle génération de disques NVMe et de l’émergence de NVMe over Fabrics.
Pour tirer parti de ces innovations, les fournisseurs historiques de baies de stockage vont sans doute devoir refondre les architectures de leurs systèmes, ce qui devrait un peu plus ouvrir la porte à des start-ups à même de délivrer des performances élevées à des niveaux de latence très faible.
Pour les entreprises en quête de la performance absolue, 2017 devrait aussi être marquée par l’apparition de nouveaux supports de stockage comme la 3D Xpoint d’Intel et Micron ou la Z-NAND de Samsung.
Afin de faire le point sur ces innovations, SearchStorage s’est entretenu avec les principaux responsables techniques de l’industrie. Voici leurs prédictions pour 2017 et au-delà.
L’adoption du stockage flash s’accélère dans les entreprises
Daniel Cobb, Dell EMC Fellow, Vice-président de la stratégie technologique de Dell EMC : L’adoption de la Flash devrait s’accélérer, à un rythme supérieur aux prédictions. De nouvelles usines de fabrication de NAND sont en train d’entrer en production et leurs rendements sont excellents. Cela devrait permettre de mettre un terme à la petite pénurie de Flash que nous venons de connaître et l’adoption de la technologie devrait accélérer.
HU Yoshida, CTO, Hitachi Data Systems : La Flash va devenir le support de stockage dominant, et cela va nous permettre d’avoir à moins nous concentrer sur l’optimisation et l’administration du stockage. Vous n’avez plus à vous soucier de savoir si [vos données] doivent aller sur un stockage de classe 1 ou de classe 2 ou à vous poser la question de savoir quelles applications faire tourner sur la Flash. Tout le stockage se convertit à la Flash. La bascule s’est opérée. Ce n’est plus une question de prix ou de performance. Et la roadmap à venir pour la Flash est encore meilleure. Les capacités de la NAND vont encore progresser de façon spectaculaire avec les nouvelles technologies comme la 3D et TLC. D’ici 2020, les fabricants prédisent l’émergence de modules de 128 To, et cela veut dire que la baisse des prix va être spectaculaire.
De plus en plus de constructeurs de baies de stockage ou d’acteurs hyperscale comme Google et Facebook, qui bâtissent leur propre stockage, vont commencer à construire leurs propres modules flash[ plutôt que d’utiliser des SSD, N.D.L.R.], car ils prennent conscience des avantages qu’ils peuvent ajouter. Il est possible de mettre plus d’intelligence dans le module flash. On peut par exemple ajouter des fonctions telles que la compression sans impact sur les performances du contrôleur en amont. Une autre chose, que nous pouvons faire est d’ajouter des fonctions d’effacement sécurisé. Lorsque nous recevons une commande pour effacer, nous pouvons tout simplement reformater toutes les cellules – même celles cellules qui ne sont pas vues par le contrôleur. Ceci est important pour les besoins de protection des données.
Vincent Hsu, IBM Fellow, VP et CTO, IBM Storage : on va voir à très court terme une adoption agressive de la mémoire NAND 3D TLC. Nous voyons aussi des gens travailler sur la Flash QLC [Quad Level Cell], avec quatre bits par cellule. Il est encore un peu tôt, mais je pense que ces travaux porteront leurs fruits vers la fin 2017. En raison de l’amélioration de la densité, nous voyons la flash être adoptée pour plus d’applications. Elle n’est plus réservée qu’aux seules applications transactionnelles (OLTP). Nous avons vu des gens demander de la Flash pour le stockage massif de fichiers ou pour le stockage objet et je pense que ces requêtes vont se multiplier en 2017.
NVMe et NVMe over Fabrics en bonne voie
Cobb, Dell EMC : Nous allons arrêter de parler de NVMe et NVMe over fabrics pour vraiment délivrer ses technologies en 2017. Je vois un écosystème NVMe riche se développer aux côtés du protocole SAS qui existe depuis si longtemps dans le stockage. Et NVMe over Fabrics est un nouveau moyen pour les serveurs de parler au stockage. L’industrie ne va pas se convertir en masse à ces nouvelles technologies, mais elles vont s’implanter sur des marchés clés. Il va y avoir des scénarios d’utilisation où les clients seront en quête de la latence la plus basse ou du débit le plus élevé. Et ces besoins seront satisfaits soit par du stockage externe, soit par du stockage interne ou du DAS dans les serveurs et les architectures hyper-convergées.
Matt Kixmoeller, VP produits, Pure Storage : la technologie flash dominante va changer. On va passer du SATA et du SAS aux disques NVMe, ce qui devrait ouvrir la porte à des performance et à une efficience de nouvelle. Les disques dual-portés NVMe commencent à être disponibles, ce qui rend la technologie viable pour les baies 100 % flash d’entreprise. Cela va être une vraie transformation pour les architectures de baies 100 % flash. Ce n’est pas quelque chose qu’on peut facilement ajouter via une simple rénovation [d’une architecture existante]. Il va falloir faire évoluer à la fois le matériel et le logiciel tirer le maximum de NVMe. La première vague va voir l’adoption des disques NVMe et des baies NVMe.
La prochaine vague sera marquée par la transition vers le NVMe over Fabrics. Cette vague est très intéressante, car elle change la relation entre le stockage DAS et SAN. Si vous regardez les applications de nouvelle génération comme Hadoop, Spark, Cassandra, et plus généralement toutes les bases de données NoSQL, nombre d’entre elles ont été architecturées autour du modèle de stockage DAS. Elles sont typiquement déployées sur des serveurs banalisés avec des SSD ou des disques internes. NVMe [over fabrics] fait chuter une barrière en permettant à un stockage en réseau d’avoir le même profil de performance que le DAS local.
Metz J, ingénieur R&D, réseaux et solutions de stockage, bureau du CTO, Cisco Systems : les équipements NVMe et NVMe over Fabrics vont commencer à émerger, mais pas vraiment révolutionner les architectures de stockage. Les premiers déploiements vont répliquer les fonctionnalités existantes et offrir de meilleures performances, mais ils ne changeront pas vraiment le jeu — en tout cas pas encore. Les vraies solutions innovantes n’affecteront pas les clients avant 2018, mais ceux qui adoptent les technologies de façon précoce pourront trouver des solutions propriétaires intéressantes signées de start-ups en 2017.
(Metz note que ses prédictions sont personnelles et ne représentent pas forcément celles de son employeur).
Martin Skagen, CTO de la division infrastructures de datacenter, Brocade Communications Systems : nous allons voir des baies de stockage Flash franchir la barre des 10 millions d’IOPS et NVME sera un élément déterminant de ce progrès. NVMe est vraiment la clé de la Flash 2.0. Lors que la Flash a fait ses débuts, il n’y avait qu’un type de Flash et il y avait beaucoup de choses à faire pour que cela fonctionne bien. Puis la technologie s’est banalisée et a donné naissance au marché des baies 100 % Flash.
Mais NVMe est une révolution où, si vous avez le bon type d’architecture, vous pouvez littéralement faire exploser les performances par rapport aux systèmes Flash existants. Il ne s’agit pas que de remplacer vos disques SATA flash avec des disques flash NVMe. Il y a aussi des impacts sur la façon dont le contrôleur doit gérer la Flash. Peut-être qu’un ou deux fournisseurs traditionnels pourront y parvenir avec du travail, mais cela sera coûteux, tant d’un sur le plan logiciel que matériel. Les nouveaux entrants ont plus de chance d’y parvenir, car ils partent de zéro. Ils n’ont pas d’architecture existante à protéger et leur base installée est assez petite.
Hsu, IBM : Il va y avoir un gros focus sur les nouveaux protocoles pour tirer parti des bénéfices de la Flash. Le monde va devoir gérer plusieurs protocoles et interfaces. Une seule technologie ne pourra répondre à tous les besoins. NVMe sera beaucoup plus répandu en 2017 et à plus long terme, l’industrie devrait investir dans la maturation de NVMe over Fabrics. OpenCAPI permet par exemple d’optimiser la latence. La division Power Systems d’IBM a développé CAPI [Coherent Accelerator Processor Interface] il y a plusieurs années et nous en avons fait un standard ouvert. Le bus fait en sorte que votre bus PCIe et vos processeurs soient cohérents. OpenCAPI permet d’avoir des performances 10 fois meilleures que celles de l’interface PCIe.
Les nouvelles technologies de mémoire de stockage pour l’entreprise
Cobb, Dell EMC : De nouveaux supports de stockage vont commencer à poindre leur nez. Nous allons enfin pouvoir évaluer la 3D Xpoint de Micron et Intel. Elle n’est pas tout à fait aussi rapide que la DRAM, mais elle est plus rapide que la NAND. Elle opère à des niveaux de latence de l’ordre de la centaine de nanosecondes. Et elle devrait être un véhicule de choix pour faire la démonstration des avantages architecturaux de NVMe en raison de ses performances. La 3D Xpoint va aussi permettre de proposer une alternative bon marché à la mémoire. Cela fait près de 20 ans que l’industrie informatique n’a pas vu un nouveau support de mémoire.
Daniel CobbDell EMC fellow, Vice-président de la stratégie technologique de Dell EMC
Nous allons aussi voir des alternatives émerger comme la Z-NAND de Samsung-- [sa] réponse à la 3D Xpoint. Samsung vise à combler l’écart entre ce que peuvent faire la flash et la DRAM. Plutôt que d’inventer un nouveau type de support de stockage, Samsung pense pouvoir continuer à accélérer la NAND. L’industrie a jusqu’alors mis l’accent sur l’accroissement de la capacité et la baisse des prix de la NAND Flash, mais n’a pas fait d’effort pour la rendre plus rapide. L’approche de Samsung sur le plan technologique vaut la peine d’être surveillée, car chaque fois que l’un des géants de la mémoire fait un pari sur une technologie, il le fait de façon significative.
Milan Shetti, CTO de la division infrastructures de datacenter, Hewlett Packard Enterprise : La mémoire persistante va commencer à faire son chemin dans les systèmes de calcul et de stockage. Nous allons la voir apparaître dans des formats proches de ceux de la DRAM [des DIMM] ou sous la forme de disques. Les utilisateurs vont tout d’abord adopter les modules DIMM protégés par batterie et avec l’avènement des différentes technologies de mémoire persistante,vont migrer vers ces dernières. L’IoT devrait faire pour la mémoire persistante ce que les usages grand public ont fait pour la Flash. De plus en plus de capteurs IoT ont besoin de mémoire persistante et on devrait donc voir ces mémoires devenir plus abordables. Cela va toutefois prendre plusieurs années.
Metz, Cisco : Les avancées en matière de mémoire persistante vont changer la façon dont les applications et systèmes d’exploitation interagissent avec le stockage. Le système actuel de classe de stockage va s’effondrer. Le niveau 1 d’aujourd’hui sera le niveau zéro de demain. Le Tier 2 sera la classe d’archivage. L’évolution de la latence va modifier la façon dont on accède aux données et les temps de traitement. Certains systèmes — comme des mécanismes de mise en cache — seront abandonnés.
Mark Bregman, CTO, NetApp : À plus long terme, nous voyons l’avènement d’une nouvelle génération de support de stockage à base de mémoire. La première vague utilisera les nouvelles technologies de mémoire persistante à hautes performances, dans les périphériques de stockage. Mais il y a de moins en moins de raisons de packager ces technologies comme du stockage. Je pense que nous allons voir de nouvelles architectures systèmes émerger, qui vont ressembler à un système avec une très, très grande quantité de mémoire persistante. Et puis le besoin de stockage sera différent et plus à des fins d’archive que pour le stockage de données à haute performance ou de niveau 1 dont nous parlons aujourd’hui. Mais cette évolution ne se produira pas forcément en 2017. Nous allons probablement voir des nouvelles entreprises proposer de nouvelles architectures au cours des 12 mois à venir. Elles seront à la pointe de cette nouvelle vague.