greenbutterfly - stock.adobe.com
On l’attend toujours : où est passé le data center 100 % Flash ?
Certains disent que le disque est mort et que nous sommes à l’aube du data center 100 % Flash. Mais quand la capacité et le coût des SSD atteindront-ils un niveau tel qu’ils pourront être utilisés à d’autres fins que le stockage de haut niveau ?
L’idée de datacenters entièrement débarrassés de disques durs et de bandes, fonctionnant uniquement avec du stockage Flash (SSD principalement), est évoquée depuis au moins dix ans.
Au cours de cette période, nombre de baies de disques ont effectivement été remplacées par des baies de SSD. Mais le fait est que des entreprises persistent à s’équiper de disques durs, et même pas forcément dans une approche hybride qui combine différents formats de mémoire Flash avec des disques mécaniques.
Malgré les améliorations apportées à la capacité, à la durabilité et au coût de la mémoire Flash, la demande de disques durs reste importante. En fait, les experts du secteur prévoient que les deux technologies coexisteront encore pendant au moins quatre à cinq ans dans les entreprises, et peut-être plus longtemps chez les fournisseurs de cloud et autres très gros consommateurs de données, notamment le secteur des médias.
Petite consolation, certains argumentent que le terme de 100 % Flash ne peut se référer qu’au stockage primaire, excluant de fait les systèmes de sauvegarde et d’archivage comme s’ils ne faisaient pas partie du data center. En pratique, les performances et le prix inférieur des disques durs en font de bien meilleurs candidats à la préservation de données dormantes – mais nécessaires – que les SSD.
Quand le datacenter 100 % Flash arrivera-t-il ?
« Peut-être pas en 2012, mais certainement en 2015 ou 2016, il y avait des gens prêts à dire qu’ils allaient passer au 100 % Flash », estime
Patrick Smith, directeur technique de Pure Storage pour la région EMEA. « Mais ils parlaient de leurs données chaudes. Ils ne tenaient pas compte des besoins en matière de données toujours accessibles en lecture ni des référentiels de contenu qui, à l’époque, n’avaient pas besoin d’une telle performance. »
Patrick SmithDirecteur technique, Pure Storage
Pure Storage, qui fabrique des baies de stockage composées uniquement de mémoire Flash, a avancé l’idée d’un data center 100 % Flash dès 2011, arguant des bienfaits de cette technologie pour les applications critiques. Cela dit, il est le premier à admettre aujourd’hui que ce modèle prend du temps à s’installer. « Ce qui a changé, c’est que la mémoire Flash peut désormais rivaliser avec les disques durs en matière de prix. Donc, il devrait y avoir un intérêt pour du stockage Flash même pour les applications non critiques », dit Patrick Smith.
C’est ce que soulignent les analystes du secteur. Selon Andy Buss, directeur de recherche senior pour l’Europe chez IDC, cela est dû au passage de la Flash SLC à la Flash QLC.
« IDC a constaté l’adoption rapide de la Flash dans les centres de données européens au cours des dernières années, d’abord dans les réseaux haut de gamme, en raison du coût élevé de la Flash SLC », explique Andy Buss, analyste chez IDC.
« Les dernières générations de systèmes de stockage Flash, basées sur la technologie QLC, peuvent offrir une capacité beaucoup plus importante à des prix plus attractifs. Ainsi, les baies 100 % Flash se sont répandues dans le milieu de gamme et maintenant même dans les systèmes de stockage d’entrée de gamme. »
« Nous en sommes au point où il est possible d’obtenir des systèmes QLC basés sur la technologie Flash au prix des systèmes à disques durs », reconnaît Max Mortillaro, analyste en stockage chez GigaOm.
Alors, pourquoi ne pas opter pour du 100 % Flash ?
L’avantage initial de la mémoire Flash par rapport aux disques durs était la vitesse. La mémoire Flash a été adoptée dans les stations de travail et les ordinateurs portables, ainsi que dans les serveurs exécutant des applications qui sont critiques en termes de performances et qui sont particulièrement dépendantes des entrées/sorties.
En ce qui concerne les performances, l’avantage de la mémoire Flash est surtout significatif dans les lectures et les écritures aléatoires. L’écart se réduit pour les opérations de lecture/écriture séquentielles (typiquement la lecture d’une longue vidéo enregistrée sur des blocs successifs d’un disque). Une baie de disques durs bien configurée avec une mise en cache basée sur la mémoire Flash se rapproche suffisamment des vitesses 100 % Flash dans les environnements réels.
« Tout dépend de l’infrastructure dont vous disposez et des caractéristiques techniques que vous en attendez », explique Roy Illsley, analyste chez Omdia. « Le stockage le plus approprié à vos besoins peut être le Flash, ou tout aussi bien un support rotatif. Pour cette raison, je ne m’attends pas à ce que les centres de données 100 % Flash deviennent monnaie courante. »
Selon Rainer Kaese, directeur du développement commercial chez Toshiba Electronics Europe – un fabricant de disques durs –, 85 % des médias en ligne dans le monde sont encore stockés sur des disques durs.
Le problème, selon lui, est de savoir si la production de SSD peut répondre à la demande. « Si nous voulons remplacer ces 85 % par des SSD, il faut produire cinq, sept, voire huit fois plus de SSD », explique-t-il.
Quant à la réduction de l’écart de prix, il faudrait, selon Rainer Kaese, prendre réellement tous les paramètres en compte pour dresser une comparaison fiable. Typiquement, les SSD les moins chers sont ceux qui s’usent aussi le plus. Et pour limiter cet effet d’usure, il faudrait déployer des SSD plus capacitifs que des disques durs pour une même application. Or, à l’heure actuelle, ce n’est pas le cas. Il faut aussi concevoir qu’un SSD qui utilise sa pleine vitesse nécessite en amont un serveur plus cher que celui qui n’accède qu’à des disques durs.
« Tout mis bout à bout, vous vous rendez-compte que la mémoire Flash est encore cinq à sept fois plus chère », estime-t-il.
Quel avenir ?
Les analystes s’attendent toutefois à ce que la capacité de la mémoire Flash dépasse celle des disques durs. Max Mortillaro, de GigaOm, indique que les fournisseurs ont établi des feuilles de route pour des modules de 75 To, 250 To et 300 To.
Cela apportera de nouveaux avantages à la mémoire Flash, comme une maintenance réduite. Dans les data centers, condenser autant de données sur moins de SSD permet d’en avoir moins à remplacer quand ils sont usés. Et puis, réduire le nombre d’unités réduit mathématiquement la quantité d’énergie consommée.
Paul SpecialeDirecteur marketing, Scality
« Certes. Mais la fin du disque dur rotatif n’arrivera jamais assez vite », lance Alastair McAulay, expert en stratégie de data center chez PA Consulting. « Dans tous les cas d’utilisation, du PC portable au datacenter, quand on y accède, les disques durs consomment plus d’énergie, produisent plus de chaleur et sont plus susceptibles de tomber en panne sans crier gare que des SSD ».
« À l’inverse, les réglementations qui exigent des périodes de conservation des données très longues, le besoin de fournir de grands jeux de données pour l’IA, et même la nécessité de garder des copies immuables des données, soulignent tous la nécessité de supports qui ne consomment rien ou presque quand on n’y accède pas : c’est le cas des disques durs, du stockage sur bande et du stockage optique », ajoute-t-il.
L’une des façons dont les fournisseurs de SSD ont réduit l’écart de coût est d’utiliser les performances de la Flash grâce à des techniques telles que la déduplication et la compression. Mais ces techniques fonctionnent moins bien sur les données déjà fortement optimisées ou compressées, comme les fichiers multimédias ou les sauvegardes. « En ce qui concerne le rapport prix/performance, les disques SSD haute densité ne peuvent pas remplacer totalement les disques durs, en particulier pour le stockage de fichiers (données non structurées) à l’échelle du pétaoctet », estime Paul Speciale, directeur marketing chez Scality, un fournisseur qui vend les deux supports.
« À grande échelle, le stockage de données sur SSD QLC n’est plus nécessaire pour toutes les applications critiques », ajoute-t-il. « Nous le recommandons et l’utilisons pour les charges de travail sensibles à la latence et à la lecture intensive qui justifient son coût plus élevé. En revanche, la technologie Flash QLC n’est pas idéale aujourd’hui pour la plupart des autres charges de travail. »