Storage Magazine France #1 : l’explosion des données, un défi pour le stockage
LeMagIT lance Storage Magazine en français. Un trimestriel, en PDF, conçu pour vous accompagner dans vos choix en matière d’infrastructures de stockage. Le n°1 traite de la capacité de stockage disponible dans le monde qui devrait être multipliée par 4,5 d’ici 2020 du fait de l’explosion des volumes de données.
LeMagIT lance Storage Magazine en français. Une publication trimestrielle, au format PDF, adapté à l’ensemble des supports et conçue pour vous accompagner dans vos choix en matière d’infrastructures de stockage, un segment technologique toujours plus important au cœur du SI. La capacité de stockage disponible dans le monde devrait être multipliée par 4,5 d’ici à 2020 du fait de l’explosion des volumes de données générés. Pour s’adapter, les entreprises doivent commencer à réfléchir à ce que seront, demain, leurs architectures de stockage.
Ce numéro 1 de Storage Magazine en français, n’est qu’un premier rendez-vous puisque la rédaction du MagIT vous en proposera désormais une édition tous les trimestres. Dans chaque numéro vous retrouverez des dossiers thématiques proposant une analyse en profondeur d’un domaine, des chroniques d’analystes et d’experts, ainsi que des instantanés chiffrés permettant de se faire une idée rapide d’un marché ou d’une problématique au travers des avis de vos pairs.
Vous trouverez ainsi dans ce numéro des extraits de l’analyse par Gartner des capacités critiques des baies Flash du marché, ainsi qu’une chronique de Jon Toigo, l’un de nos consultants stockage.
44 zetaoctets de données en 2020, dont seulement 15 % pourront être stockées
Le lancement de Storage Magazine en français est lié à la place toujours plus déterminante des infrastructures de stockage dans l’organisation du SI. Il s’inscrit également dans le suivi et l’analyse des évolutions technologiques majeures à l’œuvre sur ce segment indispensable.
Une place toujours plus déterminante des infrastructures de stockage dans l’organisation du SI
Si l’on en croit IDC, le volume de données généré dans le monde en 2013 a atteint 4,4 Zetaoctets, dont 1,5 Zetaoctets générés directement par les entreprises et 2,9 zetaoctets générés par le grand public. Sur ces 2,9 zetaoctet, 85% ont, à un moment ou à un autre, été touchés par une entreprise (il faut entendre entreprise au sens large puisque dans la bouche d’IDC cela veut aussi dire un géant du web comme Google, Microsoft ou Yahoo). Ce chiffre passera à 44 zetaoctets en 2020.
Comme l’explique aussi IDC une large partie de ces données n’ont qu’une existence éphémère (contenus des SMS ou des MMS, flux vidéos streamés, données de caméras de surveillance…) et cette tendance à l’éphémère devrait augmenter. Heureusement d’ailleurs car la capacité de stockage disponible ne suffirait pas à faire face au déluge d’informations qui nous submerge. IDC estime ainsi qu’en 2013, la capacité de stockage disponible dans le monde ne pouvait stocker qu’un tiers des données produites et ce chiffre devrait passer à 15% en 2020.
Une petite règle de trois nous apprend ainsi que la capacité de stockage mondiale en 2013 était d’un peu moins de 1,5 zetaoctets et qu’elle passera à 6,6 zetaoctets en 2020. Ce qui veut dire que les entreprises doivent anticiper une croissance de l’ordre de 4,5 fois du volume de données qu’elles vont avoir à gérer. Et il est peu probable que cela se fasse avec les architectures de stockage en place.
Le stockage doit évoluer pour faire face à ces nouveaux besoins
Les architectures de stockage vont devoir évoluer pour permettre aux organisations d’absorber de façon transparente ces volumes de données, mais aussi pour permettre des transitions plus simples entre générations.
L'approche actuelle qui consiste à acheter de nouveaux systèmes de stockage tous les 3 à 5 ans et à migrer les données ne sera tout simplement plus possible
Les approches actuelles qui amènent les entreprises à acheter de nouveaux systèmes de stockage tous les 3 à 5 ans et à migrer leurs données en masse ne seront tout simplement plus possibles avec les volumes de données, dont on parle. Sur un système de stockage traditionnel, certaines opérations de migration de données peuvent déjà prendre plusieurs semaines, simplement du fait du temps requis pour copier les données de l’ancienne baie de stockage vers la nouvelle.
À l’avenir elles pourraient s’étaler sur des mois si on ne change pas les architectures en place. Et à chaque fois, il faut prévoir toujours plus d’arrêts programmés pour faire pointer les applications vers le nouveau stockage.
Dans les architectures modernes, à base de cluster, cette problématique de la migration disparaît. Qu’un noeud devienne obsolète et il suffit d’en relier un nouveau au cluster, de migrer de façon transparente le contenu de l’ancien sur le nouveau et de mettre à la retraite l’ancien noeud. Tout cela sans impact sur la production et sur les applications. Cela veut toutefois dire qu’il faut bien évaluer avant de faire son choix car au lieu de s’engager sur 3 ans, on s’engagera sur une architecture donc sur un fournisseur à bien plus long terme.
Les architectures distribuées s’imposent peu à peu dans le monde du stockage
Ces architectures distribuées gagnent tous les secteurs du stockage. Elles sont en passe de conquérir le monde des serveurs NAS, comme l’illustre la conversion de NetApp au mode cluster ou la montée en puissance d’Isilon la solution de stockage NAS en cluster d’EMC.
Elles sont de facto l’architecture par défaut des grands systèmes de stockage objet qui peu à peu font leur chemin dans les entreprises pour l’archivage de données en grand volume, mais aussi comme le stockage privilégié pour les nouvelles applications web distribuées. De ce point de vue, le succès de services comme Amazon S3 ou Azure Storage, n’est qu’un indicateur avancé de la révolution qui attend le stockage d’entreprise.
De plus en plus généralistes, les architectures de stockage objet sont en train de s’enrichir du support des vieux protocoles SAN et NAS, un support qui les rend plus attractives pour les entreprises et qui en fait une menace redoutable pour les architectures NAS. Les architectures de stockage objet ont en effet pour elles l’avantage d’afficher un rapport coût au gigaoctet sans égal.
L’aube d’une transformation massive
Enfin, les architectures en cluster sont aussi en train de conquérir le nouvel Olympe du stockage, à savoir le monde du 100% Flash qui révolutionne le stockage. L’exemple le plus parlant de cette mutation est sans aucun doute celui de SolidFire, qui a opté pour une architecture de stockage Flash en cluster de type « Shared Nothing » qui lui permet d’atteindre un niveau de scalabilité encore jamais atteint dans le monde du stockage à haute performance.
Mais les géants du stockage se convertissent aussi aux approches en cluster (même si ce n’est pas forcément à des approches cluster de type shared nothing). EMC ou NetApp, pour ne citer qu’eux, ont adopté ce concept avec les baies XtremIO et FlashRay. D’autres sont restés sur des approches plus éprouvées comme l’ajout d’un contrôleur de virtualisation en frontal des noeuds de stockage pour atteindre un résultat similaire (comme IBM, HDS ou Violin).
Dans tous les cas, les architectures de stockage sont à l’aube d’une transformation massive. Une transformation que nous avons voulu illustrer dans cette première édition française de Storage Magazine en faisant un tour d’horizon des enjeux, des architectures et des acteurs en place dans le monde du stockage 100% Flash, du stockage objet et du stockage NAS.
Toute l’équipe du MagIT se joint à moi pour vous souhaiter une bonne lecture de ce premier numéro, dont le format a été conçu pour être lisible aussi bien sur tablette numérique ou sur un écran que pour être imprimé sur du bon vieux papier.