NetApp
Pour le CEO de NetApp, Il ne faut pas confondre vitesse et précipitation
Dans un entretien accordé au MagIT en octobre, George Kurian explique comment la firme s’adapte aux évolutions du monde du stockage tout en relativisant l’émergence des solutions de stockage alternatives comme le SDS ou l’hyperconvergence : « Certains de nos concurrents ont été les premiers à se lancer sur le marché. Cela ne veut pas dire qu’il s’agit pour l’instant d’un marché de masse » explique-t-il.
Au début du mois d’Octobre, George Kurian, le CEO de NetApp a accordé une interview exclusive de 45 minutes au MagIT afin de faire le point sur la stratégie de NetApp dans un marché du stockage en pleine tourmente, marqué par l’irruption sur le marché des offres de stockage alternatives comme le stockage objet, les baies 100 % Flash, le stockage logiciel ou l’hyperconvergence.
L’entretien avec Kurian s’est déroulé après qu’IDC ait annoncé que le marché mondial du stockage externe avait reculé de 3,9 % au second trimestre 2015. Principale victime : NetApp, numéro deux mondial du stockage externe derrière EMC, qui selon le cabinet d’analyse a vu ses ventes de baies de stockage reculer de 19,6 % au premier trimestre. Ces chiffres sont cohérents avec la baisse CA de plus 10 % annoncée par la firme pour son premier trimestre fiscal (clos le 31 juillet).
Interrogé à ce sujet, Kurian n’a pas nié les difficultés rencontrées par la firme sur le marché SAN/NAS traditionnel, mais a préféré mettre en avant la progression des nouvelles offres du constructeur (comme Cloud OnTap, StorageGrid…) et s’est déclaré confiant pour l’avenir.
À raison sans doute, puisque la situation s’est un peu améliorée depuis notre entretien : hier, le constructeur a annoncé que son CA avait progressé de 8 % par rapport au premier trimestre fiscal – le CA reste en revanche en recul de 6, 5 % par rapport à celui réalisé à la même période en 2014. Ce recul doit toutefois être pris avec les pincettes d’usage : le constructeur dispose d’un matelas de trésorerie de 5 milliards de dollars en banque, de quoi anticiper l’avenir avec un peu plus de sérénité que bien des start-ups du monde du stockage…
NetApp : principale victime de la crise du marché du stockage
Le principal problème de NetApp est que son principal marché, celui des baies SAN/NAS, est pris d’assaut par de nouveaux entrants agressifs comme Nimble, Pure Storage ou Tintri et qu’il est aussi menacé par l’irruption de technologies alternatives comme les solutions hyperconvergées de Nutanix, VMware et Simplivity. Le constructeur doit aussi faire face à l‘érosion rapide des prix du NAS, aussi bien en entrée de gamme qu’en haut de gamme du fait de la montée en puissance des acteurs du stockage objet tels qu’Amazon, Scality ou Cleversafe. Enfin, NetApp doit aussi composer avec l’émergence des solutions de partage et de synchronisation de fichiers « à la Dropbox », qui sont autant d’alternatives aux serveurs de fichiers.
George Kurian le reconnaît volontiers : la plupart des entreprises ont entamé une réflexion en profondeur sur leurs architectures de stockage et finiront sans doute par rompre avec le modèle historique pour se tourner « vers un mix de technologies incluant stockage traditionnel, stockage en cluster, stockage Big Data et stockage hyperconvergé ».
Le problème est que NetApp est aujourd’hui surtout connu pour ses baies unifiées FAS et un peu pour ses baies SAN de la série E. Les offres de stockage alternatives du constructeur (Flash Ray pour le stockage Flash ou StorageGrid pour le stockage objet) restent largement confidentielles ou sont à la traîne des offres de ses concurrents et des start-ups. De même, la firme n’a pour l’instant qu’une offre symbolique sur le marché de l’hyperconvergence, avec son offre basée sur VMware EVO : Rail. Du coup, ce qui faisait jusqu’ici sa force, avoir une offre à tout faire avec les baies FAS, apparaît de plus en plus comme une faiblesse dans un monde du stockage en plein bouleversement.
Pour l’hyperconvergence et le stockage objet, NetApp entend prendre son temps
Mais cela ne semble pas trop inquiéter Kurian qui semble faire sienne la morale du lièvre et de la tortue : Rien ne sert de courir, il faut partir à point… À notre question évoquant la relative lenteur à répondre à l’émergence du stockage objet ou de l’hyperconvergence, il répond ainsi : « Certains de nos concurrents ont été les premiers à se lancer sur le marché. Cela ne veut pas dire qu’il s’agit pour l’instant d’un marché de masse ».
Pour lui, nombre d’entreprises ont d’autres chats à fouetter que d’introduire de nouvelles architectures de stockage dans un paysage IT déjà bien assez compliqué : « Les clients n’ont plus les ressources IT pour suivre l’évolution rapide du business. Il leur faut simplifier leurs environnements ». Dans ce cadre, explique-t-il, « une architecture généraliste qui sert une large partie des besoins de l’entreprise [celle des baies FAS NetApp, N.D.L.R.] a un vrai mérite […]. Ce que l’on croit est que cette approche a une vraie valeur pour les clients ».
Et d’ajouter que bien que généraliste, l’architecture des baies FAS sous OnTap reste très flexible, puisqu’elle peut aussi bien servir les besoins d’une PME que ceux d’une grande entreprise ayant besoin d’un stockage 100 % Flash capable de délivrer jusqu’à 4 millions d’IOPS.
Software Defined Storage : NetApp veut du OnTap partout
Face à certaines approches de Software Defined Storage, Kurian se montre tout aussi prudent : « On voit aujourd’hui sur le marché de multiples solutions disposant de leur propre couche de stockage distribué ou de gestion de fichiers, comme Lustre, Hadoop, Splunk, Ceph… Le problème de ces solutions est que lorsque les clients les déploient avec du DAS, ils se retrouvent à gérer les problèmes imprévus de disponibilité, de coût et de densité ».
Sans surprise, la réponse de NetApp aux approches SDS s’appuie donc pour l’instant sur les deux piliers de son offre : l’OS Data OnTap, au cœur de ses baies unifiées FAS, et les baies E-Series. Pour les solutions de stockage distribuées, la firme préconise d’utiliser des serveurs connectés à ses baies SAN E-Series car elles offrent « plus de densité, un meilleur schéma de protection de données et de meilleures performances » que les solutions distribuées émergentes 100 % logicielles.
Et pour les environnements plus traditionnels, la réponse de la firme est ce qu’elle appelle la Data Fabric. L’idée de base consiste à séparer l’OS Data OnTap des baies de stockage maison pour lui permettre d’exister dans le cloud, mais aussi sur des équipements tiers – ce travail a notamment donné naissance à l’offre Cloud OnTap et à NetApp Edge. La refonte d’OnTap en un OS de stockage « universel » est en fait la réponse du constructeur aux efforts de ses concurrents en matière de « Software Defined Storage ».
Comme l’explique Kurian, NetApp est en train de séparer progressivement les différentes couches de son OS de stockage afin notamment de rendre disponibles les couches de services et de gestion de politique de données sur tout type d’environnement.
La première couche, indique-t-il « est celle de gestion du stockage (gestion des différents types de supports, distribution des données, mécanismes RAID, cache…) ». Il s’agit en fait de toute la couche de gestion du stockage de bas niveau.
« La seconde est celle de la gestion des données (snapshots, clones, réplication, compression, déduplication, mirroring…). Il s’agit pour l’essentiel de fournir des pools de stockage virtualisés ». NetApp, avec cette seconde couche, entend propager ses services avancés hors de ses baies, afin de permettre une continuité entre les environnements NetApp dans le Datacenter et les environnements de stockage gérés par Cloud OnTap dans le cloud.
« Enfin, La troisième couche est celle de gestion des politiques de stockage et elle est indépendante des ressources ». Accessoirement, cette dernière couche, qui se préoccupe de qualité de service, de politique de protection ou de réplication, mais aussi d’analytique, peut être pilotée depuis les grands frameworks d’orchestration cloud comme ceux de VMware ou d’OpenStack.
L’un des objectifs de cette refondation d’OnTap est de simplifier le déploiement de sa technologie dans les environnements de cloud hybride. « Nos clients nous disent vouloir une expérience utilisateur unique pour partager leurs données entre leurs Datacenters et le cloud public. Notre idée est de fournir une architecture de donnée sans couture entre le datacenter et le cloud que l’on puisse gérer de façon uniforme ».
À la révolution prêchée par certains, NetApp répond évolution
Bref, face à ceux qui prêchent le SDS, et la révolution, NetApp répond pour l’instant par une évolution de Data OnTap. Au risque de passer à côté de la Révolution ? Pas sûr. Arrivé à la tête de NetApp début juin 2015 — après le débarquement de son précédent CEO, Tom Georgens -, Kurian doit pour l’instant faire avec les cartes dont il dispose. Et cela veut dire, en particulier, faire avec l’héritage d’une société qui a longtemps vécu sur une monoculture : celle des baies FAS et de OnTap, jusqu’à l’acquisition des baies E-Series, ou le développement récent de nouvelles architectures comme Flash Ray. Kurian est d’ailleurs familier de la question, puisqu’il a été à la tête du groupe OnTap de NetApp avant de prendre en charge la stratégie produit du constructeur, puis de prendre la tête de la firme.
Il n’ignore pas que les environnements de stockage sont sensibles et que les clients répugnent au Big Bang. La stratégie d’évolution en douceur d’OnTap, est donc conçue pour permettre de protéger la base installée OnTap et si tout se passe bien de permettre au vénérable OS de se propager dans le cloud.
Pour autant, Kurian est toutefois pleinement conscient qu’il ne peut se permettre d’insulter l’avenir et fourbit aussi des alternatives à OnTap. Il s’agit de répondre à de nouveaux marchés comme l’internet des objets, mais aussi de se préparer au cas où la stratégie principale ne porterait pas totalement ses fruits.
Le patron de NetApp explique ainsi que la firme « travaille sur des technologies comme le stockage objet avec l’idée d’appliquer au monde de l’entreprise les mêmes idées que ceux du cloud ». L’une des idées est de répondre aux besoins d’applications conçues initialement pour le cloud et que les entreprises souhaiteraient rapatrier en interne.
Sur l’hyperconvergence, la réponse est encore plus directe : « Nous n’entendons pas ignorer l’hyperconvergence et nous aurons une technologie dans ce domaine ». Interrogé sur le fait que l’émergence de ce type d’architecture paraît en phase avec l’évolution des architectures informatiques et celle des applications vers des modèles distribués, Kurian acquiesce et indique que la valeur de l’hyperconvergence est effectivement sans doute à chercher de ce côté. « Notre analyse est que dans le datacenter du futur, on aura des réseaux rapides à très faible latence qui interconnecteront des pools de compute, de stockage et d’IO […]». Et NetApp entend bien tirer parti de cette évolution – qui sait d’ailleurs si l’hyperconvergence version NetApp ne sera pas une variation autour de Clustered OnTap…
Et de conclure : « NetApp n’est souvent pas le premier sur un marché, mais quand nous nous lançons, nous tentons de répondre aux besoins du plus grand nombre. Notre croyance est qu’il faut appliquer les technologies de façon transparente au plus grand nombre ». On comprend que si le monde du stockage compte aujourd’hui de nombreux lièvres, la tortue NetApp est bien décidée à rester dans la course, sans toutefois sacrifier les grands principes qui ont fait son succès avec OnTap…