Stockage en cloud : 6 experts prédisent ce qui va tout changer
Une révolte des utilisateurs, de l’archivage sur ADN, du stockage en cloud hybride démocratisé grâce aux containers... Analystes et fournisseurs décrivent ce qui secouera le stockage en ligne dans les prochains mois.
Dans leur boule de cristal, les experts en stockage cloud voient des chutes de prix, des fusions entre fournisseurs et même de l’archivage sur ADN qui pourrait conserver les données pour des milliers d’années. L’un prédit une rébellion de la part des utilisateurs qui n’en pourront plus de payer juste pour transférer les données entre leur entreprise et le cloud. D’autres estiment que le stockage multi-cloud va devenir plus tangible, notamment grâce à l’utilisation des applications en containers.
LeMagIT est parti à la rencontre des technologistes les plus informés, chez les fournisseurs de stockage, chez les grands prestataires de cloud, ou encore parmi les analystes.
Marc Staimer, directeur de Dragon Slayer Consulting : « Nous allons vers une rébellion des utilisateurs contre les taxes à payer pour simplement accéder à des données stockées en cloud. Le nombre d’entreprises qui retirent déjà leurs données du cloud pour cette raison devrait d’ailleurs alarmer les fournisseurs de cloud public.
Les gens ont désormais pleinement conscience de cette pratique et je prédis que payer juste pour récupérer sur site des données hébergées en ligne, va influencer les pratiques globales vis-à-vis du cloud. Les entreprises ne stockeront plus par défaut leurs données en cloud et elles retireront celles qu’elles y ont déjà entreposées. Elles n’y mettront plus que des données qu’elles n’auront plus besoin d’utiliser, ou alors qui ne servent qu’à des applications elles-mêmes en cloud, sans transit vers l’extérieur.
Cette taxe sur le transit des données entre le cloud et les utilisateurs imposent aux gens des pratiques auxquelles ils ne s’attendaient pas. Elle devrait disparaître, car elle va même affecter le business des acteurs du cloud. »
Bill Vass, directeur des technologies, AWS : « la croissance de densité dans les matériels va faire naître un nouveau type de stockage, disséminé du edge jusqu’au cloud. Nous imaginons ainsi que les prochains équipements serviront à étendre les capacités au niveau du edge, puis répliqueront les données jusqu’au cloud avec une latence minimale, notamment en passant par des solutions de stockage en colocation disséminées tout au long du chemin, à différentes étapes du réseau.
Ce seront des matériels plus performants, qui supporteront plus d’accès en parallèle, qui permettront aux systèmes de contrôle de fonctionner directement au niveau des disques et à certaines parties des applications d’être exécutées sur des serveurs au plus proche des disques.
Cela s’accompagnera de solutions d’administration globales, véritablement capables de gérer le stockage des données de bout en bout. »
Sammet Agarwal, directeur de l’ingénierie, Google Cloud Storage : « La question du TCO va désormais se poser pour les outils d’administration. L’adoption du cloud se généralisant, les équipes informatiques veulent être en mesure de gérer la complexité de travailler avec des environnements multiples. Elles ont donc besoin d’une solution simple pour faciliter la gestion de bout en bout. Naturellement, elles préféreront se tourner vers des outils dont le coût de possession se calcule de la même manière que pour la majorité des autres projets, c’est-à-dire vers une tarification à l’usage, puisque c’est le principe des traitements en cloud et que ceux-ci deviennent majoritaires. »
Matt Kixmoeller, directeur de la stratégie, Pure Storage : « Le stockage en multi-cloud va devenir une réalité grâce aux containers. Nous constatons que nos clients sont de plus en plus nombreux à adopter cette technologie. Depuis deux ans, ceux qui utilisaient des containers étaient surtout les entreprises impliquées dans le développement d’applications en SaaS ou Web. Ce n’est plus le cas à présent, puisque nous voyons de plus en plus d’entreprises traditionnelles y passer.
L’une des raisons principales est que les containers leur permettent de construire une activité en mode multi-cloud. Jusque-là, nous avions l’impression que les entreprises cherchaient surtout à faire marcher leur premier cloud public. Mais depuis qu’elles y sont arrivées, elles se remettent à réfléchir au piège d’être liées à un seul fournisseur et à la manière de s’architecturer pour l’éviter. Les containers sont la solution et, de fait, ils permettent au multi-cloud de devenir enfin une réalité. »
Steve McDowell, analyste, Moor Insights & Strategy : « Les fournisseurs de cloud public vont enrichir leurs offres de stockage avec une ou plusieurs acquisitions. Reconnaissons-le : les fonctions de stockage en ligne de ces fournisseurs sont aujourd’hui basiques. Au point d’ailleurs qu’elles laissent le champ libre à des acteurs du stockage traditionnel, comme NetApp ou Pure Storage, pour développer et vendre des offres de haut niveau. Ironiquement, ces offres reposent sur les propres briques technologiques des fournisseurs de cloud.
Je prédis donc que dans les mois à venir, Amazon, Microsoft et Google reprendront la main dans la pile technologique de leur stockage. Voire qu’ils empêcheront les acteurs traditionnels de développer des offres sur leurs ressources. Et le moyen le plus rapide pour y arriver est de racheter des technologies clés. »
Scott Sinclair, analyste, Enterprise Strategy Group : « Les fournisseurs de cloud public vont même certainement racheter l’un des fournisseurs de stockage traditionnel. Je prédis qu’il s’agira sans doute d’un rachat dans le domaine du NAS, vu la demande qui ne cesse de croître dans ce domaine. Les fournisseurs de cloud public ont fait ces dernières années des investissements considérables dans des produits sur site censés rendre possible le cloud hybride. Citons Outposts chez AWS, Anthos chez Google et Azure Stack chez Microsoft. Tout récemment, Google a racheté Elastifile. Je ne vois aucune raison pour que cet élan s’arrête. »
Bill Vass, directeur des technologies, AWS : « L’archivage des données sur de l’ADN sera concrétisé d’ici à cinq ans. Pour l’heure, tous les produits de stockage utilisent des ondes électromagnétiques pour stocker des bits : c’est ainsi que les disques durs, les bandes, les SSD, la RAM ou encore les unités 3D XPoint préservent – et finissent par perdre – des 0 et des 1. L’ADN, en revanche, n’est pas sensible à la plupart des fréquences électromagnétiques. Et cela en fait un candidat idéal pour conserver de l’information pendant des milliers d’années.
L’idée est d’utiliser des molécules pour créer un stockage chimique. Le principe revient à une pipette remplie d’un agent chimique qui servirait à faire tomber dans de l’eau distillée des gouttes dans l’ordre voulu des 0 et des 1. Les gouttes s’assemblent au fur et à mesure en hélices. Puis vous faites évaporer l’eau et vous obtenez au fond du récipient une surface – à coller sur une puce par exemple – sur laquelle est encodé le stockage.
Cela ne nécessite aucune énergie et l’ensemble reste stable tant que vous le conservez à l’abri des radiations. Pour relire l’information, il suffit juste de remettre de l’eau sur cette surface, puis de la récupérer pour séquencer son ADN, avec des instruments qui existent déjà. Vous convertissez cette séquence en 0 et en 1 et, voilà ! Vos données sont restaurées.
L’objet des recherches actuelles est de développer des instruments pour lire et écrire plus rapidement des informations ainsi. Nous ne menons pas nous-mêmes ces recherches, mais nous évaluons les projets en cours. »