Entretien avec Dheeraj Pandey, CEO de Nutanix
Dans un entretien avec LeMagIT, le CEO de Nutanix revient sur sa vision des infrastructures informatiques et sur les bénéfices des architectures de Nutanix. Il évoque aussi des pistes pour l'avenir.
À l’occasion de son passage en France, LeMagIT a pu s’entretenir avec Dheeraj Pandey le Fondateur et CEO de Nutanix, le pionnier des infrastructures hyperconvergées pour entreprises. Dheeraj Pandey a notamment travaillé au développement des technologies de stockage d’Oracle Exadata et sur les mécanismes de compression avancés de la base et il a ensuite pilot él’ingénierie d’Aster Data (racheté par Teradata) avant de fonder Nutanix.
Au cours de l’entretien nous avons pu aborder sa vision des infrastructures informatiques convergées, mais aussi faire le point sur les ambitions de Nutanix. D’autant qu’après un accord OEM réussi avec Dell, le constructeur travaille, semble-t-il, à une version 100 % logicielle de sa technologie hyperconvergée et à une version communautaire qui devrait voir le jour lors de sa prochaine conférence mondiale Next, qui se tiendra à la mi-juin à Miami.
Nutanix, qui compte près de 1200 déploiements dans le monde, a réussi une percée spectaculaire en France. L’hexagone serait aujourd’hui le second marché mondial pour la firme après les Etats-Unis. Nutanix France qui employait deux personnes au début 2013, emploie aujourd’hui 11 salariés et devrait en compter plus d’une vingtaine d’ici à la fin de l’année. Pour Dheeraj Pandey, ce succès tient avant tout à la simplicité des infrastructures proposées par la firme.
Nutanix et le marché des infrastructures informatiques
LeMagIT : Je vais sans doute commencer par une question qui va vous paraître iconoclaste, mais de plus en plus d’applications sont conçues sur un mode distribué et sont des applications de type webscale. L’architecture conçue par Nutanix est aussi une architecture conçue pour être massivement distribuée. Lorsque vous l’avez imaginée, pensiez-vous à ce type d’applications en plus du besoin de servir les applications traditionnelles ?
Dheeraj Pandey : Il faut un agent du changement et c’est ce que nous voulons être dans le monde de l’infrastructure. Si nous espérons bien sûr que nos infrastructures seront utilisées pour faire tourner des applications modernes, partitionnées, « shardées » ou distribuées, nous savons aussi qu’il nous faut avant tout servir les besoins des applications traditionnelles. Et c’est ce que nous avons fait plutôt mieux que nos concurrents. À dire vrai, c’est aussi l’une des choses que VMware avait particulièrement réussie…
LeMagIT : En fait, la virtualisation a permis de transposer sur des architectures plus agiles des applications parfois anciennes. Et l’on peut d’ailleurs penser que le succès de VMware est largement lié à l’échec des systèmes d’exploitation traditionnels à supporter convenablement en parallèle de multiples applications.
Dheeraj Pandey : Exactement. Je pense que VMware a réussi à construire un pont entre les architectures modernes et les applications « legacy » et ils ont aussi réussi à bâtir un plan de contrôle qui s’appuie sur une interface graphique très proche des interfaces Microsoft. En tant que société, c’est aussi ce que nous avons réussi à réaliser.
Nous pensons aussi que les applications webscale auront les mêmes problèmes que les applications « legacy ». Parmi les développeurs, vous avez d’excellents codeurs, des codeurs moyens et des codeurs très médiocres.
20 % des développeurs savent le défi que cela représente, de bâtir des applications webscale. Ils savent optimiser des composants comme Cassandra, Apache, zookeeper ou les couches de load balancing. Ils sont des experts du théorème CAP – qui dit qu’il est impossible de bâtir un système distribué assurant à la fois la cohérence des données, la disponibilité et la tolérance au partitionnement et que seule deux de ces trois caractéristiques peuvent être assurées simultanément, N.D.L.R. Mais 80 % des développeurs ne maîtrisent pas ces concepts et ne savent pas ce que veut dire cohérence, disponibilité…
Notre architecture doit donc prendre en compte ces 80 % de développeurs et abstraire les contraintes d’infrastructures pour eux. On ne peut attendre de ces 80 % qu’ils maîtrisent toutes les subtilités de l’infrastructure et c’est d’ailleurs sans doute une bonne chose. En sciences de l’informatique, il y a ce concept de la séparation des préoccupations (« separation of concerns ») et les développeurs ne devraient pas avoir nécessairement à se préoccuper de l’infrastructure.
On voit des acteurs comme FaceBook, Google ou Microsoft passer outre cette séparation des préoccupations. Mais leurs ingénieurs ont étudié les sciences informatiques dans les 15 meilleures universités de la planète. 95 à 98 % des développeurs n’ont pas étudié dans ces écoles et n’ont pas fait des études de pointe en sciences informatiques. Ce qui ne les empêche pas de programmer beaucoup.
LeMagIT : Ceci dit une partie des problèmes de type CAP sont en cours de résolutions dans des composants d’infrastructure de nouvelle génération comme les bases de données hybrides NoSQL et ACID…
Dheeraj Pandey : Oui, mais il ne faut pas oublier le rôle de l’infrastructure matérielle elle-même.
LeMagIT : … Et il est sans doute possible, au vu des avancées actuelles, de lier plus étroitement les progrès effectués au niveau de ses bases de données aux architectures matérielles.
Dheeraj Pandey : Oui, exactement. Par exemple Cassandra en tant que base NoSQL n’a pas résolu les problèmes de cohérence. Mais nous avons dû le faire pour notre architecture. Nous avons « bâtardisé » Cassandra. Nous avons posé Paxos au-dessus de Cassandra – voir à ce propos ce blog sur Paxos et Cassandra chez datastax, N.D.L.R.
Le problème des bases comme Cassandra et qu’il y a trois copies de chaque donnée et qu’elles sont « éventuellement dans un état cohérent ». Les trois instances finiront à terme par s’accorder sur une valeur. Si vous pouvez gérer l’inexactitude alors vous pouvez tolérer cette inconsistance. Mais le stockage dans les datacenters ne peut tolérer cette inexactitude. Il nous faut une stricte consistance des données dans nos clusters et c’est pour cela que nous avons modifié Cassandra. Dans la pratique, nous faisons des choses que la plupart des développeurs ne veulent pas avoir à gérer.
Dans l’essence qu’est ce que Nutanix ? C’est un ensemble de logiciels Big Data qui résolvent des problèmes courant des datacenters. Nous utilisons Cassandra, Zookeeper et nous avons bâti nos propres algorithmes Mapreduce pour faire fonctionner sur notre architecture distribuée des applications traditionnelles comme Exchange, Oracle, SAP, VDI…
À propos des infrastructures hyperconvergées
LeMagIT : La première fois que j’ai rencontré Nutanix à VMworld, l’histoire que vous mettiez en avant était que vous permettiez de déployer plus simplement des clusters VMware. Nombre des géants de l’IT sont lancés dans une course pour fournir des infrastructures convergées ou hyperconvergées prêtes à l’emploi ou prépackagées avec au choix VMware, Hyper-V ou OpenStack. De votre point de vue, cela ferait-il sens de prépackager vos solutions pour une pile ou une autre ?
Dheeraj Pandey : Pour l’instant, nous livrons par défaut avec une version open source, mais nos clients peuvent imager très rapidement un cluster Nutanix avec VMware ou Hyper-V. Nous l’avons rendu si simple et si automatisé que nous n’avons pas à livrer ces composants pré-intégrés.
LeMagIT : En France vous avez rencontré un vrai succès avec vos infrastructures. Il semble que les entreprises françaises soient devenues très attirées par le concept d’hyperconvergence (La France serait en fait le second marché mondial de Nutanix, N.D.L.R.). Est-ce lié au fait que vous présentez une infrastructure de type scale-out qui répond bien à leurs préoccupations ?
Dheeraj Pandey : À mon sens ce n’est pas que le scale-out. Nutanix apporte une nouvelle liberté, un contrôle renforcé pour les couches applicatives. Les développeurs d’applications n’ont plus à se préoccuper de l’infrastructure, du switch brocade, de la baie SAN ou du débogage de cette infrastructure pour qu’elle livre son maximum. Toute cette complexité, nous l’avons éliminée.
Si vous regardez les grands de l'IT des dernières années. Microsoft a supplanté Novell et les vendeurs Unix du fait de sa simplicité. NetApp doit son succès à sa simplicité, de même que VMware. Pouvoir bouger des VM par glisser-déposer est libérateur.
En quelque sorte nous sommes des vendeurs d’Opium, nous vendons de l’Opium aux masses. Et cet opium est la simplicité. Nos boîtes fonctionnent, tout simplement (« it just works »).Dheeraj Pandey, Nutanix
LeMagIT : L’une des promesses de VMware était aussi de réduire les coûts dans le datacenter…
Dheeraj Pandey : Non le coût n’a pas joué de rôle dans leur succès. Tout au plus ils ont permis de réduire le coût du composant le plus banalisé du datacenter, c’est-à-dire le serveur. Mais pour en revenir à mon point, le vrai facteur de succès a été la simplicité et aussi le fait de donner le pouvoir aux utilisateurs. Microsoft a permis à des gens qui n’avaient pas forcément des compétences de pointes d’administrer des bases de données, des annuaires, etc.. NetApp a permis à des gens qui n’étaient pas des experts du stockage de provisionner du stockage, etc. AWS permet aux Devops de passer outre la rigidité de leur IT.
En quelque sorte nous sommes des vendeurs d’Opium, nous vendons de l’Opium aux masses. Et cet opium est la simplicité. Nos boîtes fonctionnent, tout simplement (« it just works »).
LeMagIT : Dans un monde ou 80 % des entreprises utilisent VMware, la simplicité veut sans doute aussi dire VMware ?
Dheeraj Pandey : Oui et non. Car le point de friction avec VMware est en train de devenir le prix de leur infrastructure. L’autre problème est que VMware est « infrastructure friendly » mais pas « developer friendly ». Le problème d’une société de la taille de VMware est qu’elle se préoccupe sans doute aujourd’hui plus de Wall Street que de ses clients.
LeMagIT : Le monde de l’hyperconvergence se compose d’acteurs comme Nutanix, Simplivity, Maxta… Mais il y a aussi un éléphant dans la pièce : EVO : Rail de VMware. Le problème d’EVO : Rail est toutefois qu’il ne fait tourner que vSphere, alors que nombre d’entreprises ont de multiples piles d’infrastructure, vSphere, Hyper-V ou pour certaines OpenStack. Il y a donc un risque de voir apparaître des ilôts hyperconvergés. Pour l’instant, Nutanix peut faire tourner toutes vSphere et Hyper-V dans des clusters séparés, ce qui est déjà un avantage sur EVO : Rail. Mais peut-on espérer un jour voir un cluster Nutanix faire tourner des environnements hybrides mixant vSphere, Hyper-V et OpenStack par exemple ?
Le point de friction avec VMware est en train de devenir le prix de leur infrastructure. L’autre problème est que VMware est « infrastructure friendly » mais pas « developer friendly ».Dheeraj Pandey, Nutanix
Dheeraj Pandey : En fait, tout cela est en développement. C’est tout ce que je peux dire pour l’instant. Dans un premier temps nous allons proposer un nœud conçu pour offrir bien plus de stockage qu’aujourd’hui. On travaille sur un grand nombre de scénarios hybrides et vous pourrez à terme mélanger des piles logicielles différentes sur la même infrastructure.
Nutanix et le stockage
LeMagIT : Pour l’instant Nutanix a essentiellement axé son message sur l’hyperconvergence et c’est d’ailleurs le message qui a fait votre succès auprès des clients. Mais si l’on regarde votre technologie, elle pourrait aussi être utilisée pour fabriquer des baies de stockage en cluster. En fait vous pourriez aussi vendre la technologie comme une baie de stockage.
Dheeraj Pandey : Je pense que nous pourrions être beaucoup de choses. Nous pourrions packager notre technologie comme une baie NAS ou une baie SAN et votre observation à ce propos est juste. La question est en fait de savoir quels sont les marchés que nous devons éviter. La plupart des sociétés qui ont du succès réussissent par ce qu’elles savent ce qu’il faut faire, mais surtout ce qu’il ne faut pas faire.
LeMagIT : Le problème est qu’il est actuellement assez « simple » de vendre à une entreprise le concept d’hyperconvergence. Mais à un certain point vos clients risquent de revenir vers vous parce que la solution actuelle ne répond pas à certains besoins où parce qu’ils ont une application qui nécessite de tourner sur des serveurs physiques mais qui aimerait bien consommer du stockage sur le cluster Nutanix…
Dheeraj Pandey : Tout cela est en travaux, je ne peux malheureusement pas en dire plus. Nous avons de grands clients qui viennent à nous en disant qu’ils sont prêts à nous confier toute leur infrastructure pour peu que nous fassions ceci ou cela, pour l’essentiel les points que vous avez mentionné.
LeMagIT : La capacité de stockage des clusters Nutanix est aujourd’hui consommable via des protocoles en mode fichiers ou bloc. Pourrait-elle être exposée sous la forme d’un stockage objet.
Dheeraj Pandey : Si vous regardez l’architecture, les objets d’un système Nutanix sont exposés sous la forme d’un montage NFS ou d’un LUN iSCSI. Mais l’architecture sous-jacente est un stockage objet. En fait, le problème est plus pour nous de savoir ce que nous devons et ne devons pas exposer.
Nous disons pour l’instant que nous allons nous concentrer durant les 3 prochaines années sur les cas d’usage qui ont le plus de sens et le faire vraiment bien. Et cela veut dire se concentrer sur les données qui ont de la valeur, pas sur du stockage objet de masse à 2 cents le Gigaoctet. Ce n’est pas notre métier. Nous laissons cela aux spécialistes du stockage objet.
À terme nous livrerons du logiciel et pas des appliances et nos partenaires auront la possibilité de jouer avec et de personnaliser les fonctions voire de bâtir des fonctions additionnelles. Une fois que nous auront les API requises, ce sera au tour des partenaires de jouer.
Des ambitions au-delà de l’hyperconvergence ?
LeMagIT : Vos infrastructures sont pour l’essentiel utilisées pour faire fonctionner des applications traditionnelles virtualisées sous VMware. Mais on voit aujourd’hui émerger de nouvelles applications distribuées comme Hadoop, qui pourraient être largement optimisées par une intégration intelligente avec une infrastructure adaptée. À votre avis, est-ce que Nutanix pourrait adapter son architecture, tant au niveau compute qu’au niveau stockage à ces nouvelles applications pour non seulement en faciliter le déploiement mais aussi pour optimiser leur fonctionnement ?
Dheeraj Pandey : Il n’y aura pas que de l’innovation en matière de technologie. Il faut aussi attendre des innovations en matière de packaging et de prix. Ces aspects sont tout aussi importants. Nutanix se préoccupe bien sûr de cette nouvelle génération d’applications et de devops. Mais la réalité est que 80% des entreprises ne sont pas des early adopters et ont quand même un besoin urgent de simplification de leurs infrastructures. Le fait de leur proposer une infrastructure convergée est déjà un élément très important de simplification.
LeMagIT : Mes estimés collègues du Register croient savoir que vous développez votre propre hyperviseur, ce qui pour moi ne semble guère avoir de sens. Ne travaillez-vous pas plutôt à la personnalisation d’un hyperviseur libre existant comme KVM dans le cadre de votre édition « communautaire ?
Dheeraj Pandey : (Rires) nous voulons bâtir quelque chose de sûr, de simple à utiliser et qui change l’économie du stockage dans les datacenters. Nous évoluons en permanence et nous tentons d’anticiper les besoins de nos clients.
Je n’aime pas vraiment spéculer sur ce que nous faisons tant que le produit n’est pas disponible sur le marché. Tout cela sera disponible dans les deux mois à venir (sans doute lors de la conférence Next du constructeur à Miami en juin, N.D.L.R.).
Je pense qu’il y a de la place pour bâtir des clusters hétérogènes et tout un tas d’autres choses auxquelles nous réfléchissons constamment. Nous savons pourquoi nous faisons les choses. Pour le comment et le quoi, je vous demanderai de patienter encore un peu…