fotogestoeber - Fotolia
La seconde vie des technologies moribondes
Certaines technologies de stockage étaient apparemment de bonnes idées, mais n’ont jamais pris ; d’autres ont juste dû attendre le bon moment.
Autrefois vue comme prometteuse, la technologie RDX est passée de main en main comme une patate chaude. RDX permet d’utiliser des disques durs comme des bandes. On insère un disque dur dans la cartouche RDX puis on insère cette cartouche dans le lecteur RDX. On peut alors sauvegarder des données sur un support amovible qui combine la performance du disque avec la portabilité d’une bande.
Le problème est que quelle que soit la dose de maquillage que l’on applique, un disque dur n’est pas une bande. Il n’est pas aussi portable, durable ou fiable – surtout après être resté sur une étagère pendant plusieurs années.
Il est aussi délicat de bâtir des systèmes RDX à grande échelle, c’est pourquoi cette technologie est largement restée dans le domaine des PME.
La longue itinérance du RDX
Développé par ProStor Systems il y a plus de dix ans, le RDX a fait des débuts prometteurs en séduisant un grand nombre de constructeurs comme Dell, HP, IBM, Imation et Tandberg Data. Et ce, alors que les disques durs commençaient à être utilisés comme cible pour la sauvegarde.
Mais la révolution du disque amovible n’a jamais pris et en 2011, Imation et Tandberg Data se sont partagé la propriété intellectuelle et les gammes de produits RDX de ProStor.
Quelques années plus tard, Overland Storage, cherchant à se diversifier alors que son activité sauvegarde sur bande déclinait, a racheté Tandberg Data, et a hérité du RDX. Cette année-là, le duo Overland Tandberg a été avalé par Sphere 3D.
Toutes ces transactions ont un côté incestueux, mais le résultat est le suivant : il n’est plus possible de savoir qui est le propriétaire du RDX sans tenir un carnet des cessions. Et s’il y a sans doute des utilisateurs satisfaits du RDX, il n’y en a jamais eu assez pour épargner la casse à une technologie autrefois prometteuse.
RDX n’est pas la seule idée qui a rapidement décliné une fois confrontée à la dure réalité du monde du stockage.
Bye Bye LTFS ?
Linear Tape File System, ou LTFS — la technologie qui permet d’utiliser la bande comme du stockage — semblait aussi avoir un bel avenir lorsque le consortium LTO l’a dévoilé, avec le soutien d’IBM.
Mettre un système de fichiers sur une bande et le coupler à une appliance frontale a ouvert de nouveaux usages pour la bande comme la possibilité de l’utiliser pour le stockage à grande échelle, d’archives actives ou de médias en streaming. Le tout en alliant le faible coût de la bande et les avantages d’un accès aléatoire aux fichiers via LTFS.
Mais LTFS a eu des retards à l’allumage sur le marché des entreprises. La plupart des produits mettaient en œuvre la technologie sont restés cantonnés au monde des médias et du divertissement voire au HPC. Il existe quelques produits pour les entreprises bâtis autour de LTFS mais leurs implémentations sont limitées et la technologie n’est plus qu’un distant écho sur le radar des professionnels du stockage.
Le retour des morts-vivants
Cela n’a rien de nouveau. Un certain nombre de technologies autrefois données pour mortes ont trouvé leur chemin hors du cercueil où on les avait prématurément enterrées.
Certaines se sont réincarnées sous d’autres noms. Tandis que d’autres ont vu leurs fonctionnalités originelles augmentées. D’autres, enfin, avaient simplement été lancées trop tôt et n’ont décollé que lorsque les entreprises ont pu tirer parti de leurs capacités.
L’ILM - ou Information Lifecycle Management - a été une pilule amère pour nombre d’entreprises. La fraîcheur de l’accueil réservé au concept est liée en partie au fait qu’il relevait plus de la pratique que du produit. De ce fait, sa mise en œuvre nécessitait une importante main-d’œuvre.
Pire, peu d’entreprises ont vu un vrai besoin pour l’ILM. Quelques années plus tard, pourtant, avec l’arrivée des baies Flash et des baies hybrides, l’ILM est de retour… sous un autre nom : le tiering automatisé.
Abandonner l’acronyme ILM n’a pas fait de mal. Rebaptiser la technologie « tiering automatisé » a permis d’afficher clairement ce que la technologie peut faire pour extraire le maximum de performance de la Flash tout en optimisant le rapport prix/performance global d’une baie.
Le CDP - ou Continuous Data Protection - est une autre de ces technologies zombies. Si l’on avait bien compris dès le départ les bénéfices de sauvegarde en continu des données plutôt que de le faire en une seule étape, lourde et consommatrice de temps, rares ont été les entreprises qui ont compris comment intégrer le CDP dans leurs processus de backup existants.
La technologie a donc végété pendant des années avant d’être ressuscitée par les nouveaux besoins de sauvegarde des environnements virtualisés. Soudainement, elle avait rencontré un besoin. Elle était même la seule à même d’assurer la sauvegarde de certains environnements.
Les constructeurs et éditeurs ont appris à être prudents et parlent rarement de CDP, mais leurs produits combinant snapshots et réplication menacent aujourd’hui les applications de backup traditionnelles avec lesquelles le CDP avait du mal à s’intégrer il y a quelques années.
Mais le zombie le plus important du monde du stockage est sans aucun doute le stockage en cloud. Lorsque les premiers services de stockage externalisés sont apparus dans les années 90, ils n’ont absolument pas éveillé l’intérêt des spécialistes IT, contrairement au stockage en cloud aujourd’hui. Mais il est vrai qu’à l’époque la fourniture de stockage externalisé par des fournisseurs de services managés n’avait pas le sex-appeal du cloud aujourd’hui.
Le prochain mort-vivant ?
Il peut donc y avoir une vie après la mort pour certaines technologies de stockage. Laquelle de celles actuelles connaîtront le même sort : l’Hyperconvergence, le Software-Defined Storage, le stockage objet ? Seul le temps pourra le dire.