Pure Storage : « nous adaptons nos offres à l’IA pour le prestige »
Le fabricant de baies de stockage dévoile un nouveau programme commercial adapté aux fournisseurs de GPU en cloud et des fonctions qui rendent ses baies plus commodes pour les travaux d’inférence.
Pure Storage met à jour son offre commerciale, pour mieux répondre aux projets d’intelligence artificielle de ses clients. Trois sujets sont plus particulièrement couverts. D’abord, la manière de facturer le stockage dans le contexte d’un entraînement de grand modèle. Ensuite, la livraison de fonctions en plus dans le cadre d’un usage de l’IA sur les données d’une entreprise. Enfin, l’enrichissement des consoles d’administration avec un copilote intelligent qui améliore la gouvernance des données.
Ces annonces ont été formulées dans le cadre de la conférence Pure/Accelerate 2024 qui se tient cette semaine à Las Vegas.
Jusqu’ici, le constructeur avait moins communiqué que ses concurrents sur l’IA. Il part du principe que ses baies, déjà suffisamment rapides, n’avaient pas besoin, elles, de mises à jour matérielles pour s’interfacer avec le haut débit des GPUs Nvidia. De fait, aucune annonce matérielle n’a été formulée durant cette nouvelle édition de sa conférence annuelle.
Pure Storage se distingue des autres fabricants de baies de stockage par l’utilisation dans ses produits de modules Flash maison, les DFM. Ceux-ci sont 2,5 fois plus capacitifs et plus rapides que les SSD ordinaires que l’on trouve partout ailleurs.
Nouveau programme Evergreen//One for AI
Les très grands comptes – parmi lesquels des hébergeurs – qui déploient des clusters de GPU Nvidia vont bénéficier d’un nouveau contrat Evergreen//One for AI. Celui-ci facture non plus les baies NAS FlashBlade au seul usage de leurs capacités de stockage, mais tient aussi compte de la bande passante réellement utilisée.
Selon le constructeur, les entraînements de modèles d’IA nécessitent à la fois des données de travail, qui sont accédées de manière intensive, et des données au repos, qui sont soit celles déjà traitées, soit celles en cours de préparation pour le prochain train de calcul. Si l’ensemble consomme les mêmes disques Flash, les données au repos sollicitent beaucoup moins les capacités de communication des baies FlashBlade.
Le programme commercial Evergreen//One for AI propose donc de déployer sur site des baies FlashBlade//S500 excessivement performantes, mais de ne les payer qu’au prix de baies FlashBlade//E d’entrée de gamme tant que leur haut débit n’est pas utilisé. En l’occurrence, une FlashBlade//S500 est un boîtier 5U contenant deux processeurs, huit ports Ethernet en 100 Gbit/s chacun et un maximum de dix lames de stockage équipées, chacune, de quatre DFM (les SSD particuliers de Pure Storage) avec NAND QLC.
Outre la vitesse débrayable des ports Ethernet, la variation des performances se fait au niveau des lames : soit la baie n’utilise qu’un DFM par lame de stockage à pleine vitesse, soit elle utilise les quatre (plus de capacité), mais chacun avec un quart de la vitesse possible.
Lors du salon Pure/Accelerate 2024, Pure Storage a annoncé l’arrivée de nouveaux DFM QLC d’une capacité de 150 To, soit le double des actuels DFM QLC en 75 To.
Accessoirement, les baies FlashBlade viennent à leur tour d’être certifiées par Nvidia pour être utilisées avec ses clusters DGX, lesquels correspondent à un modèle type de serveurs remplis de GPU et montés en réseau. Ces clusters DGX constituent l’artillerie lourde que les hébergeurs sont censés déployer pour proposer des services d’entraînement de grands modèles d’IA, ou même des services de supercalcul.
Pure Fusion v2 et des kits Open source pour l’inférence
Pure Storage assimile l’usage de l’IA en entreprise au RAG et à l’inférence, c’est-à-dire au fait de formuler des requêtes à un LLM préentraîné en lui demandant de puiser ses réponses dans les données locales. Pour favoriser cette pratique, Pure Storage va fournir avec ses baies FlashBlade un ensemble de logiciels Open source qui vont permettre, typiquement, de vectoriser les données existantes (fichiers bureautiques ou multimédias) afin de pouvoir les insérer de manière transparente dans les prompts.
De plus, Pure Storage intègre désormais la fonction Pure Fusion dans le système d’exploitation Purity de ses baies de stockage. Celle-ci consiste à réunir plusieurs baies – qu’elles soient physiques ou qu’il s’agisse de baies Purity virtuelles en cloud – en un seul pool de stockage. L’enjeu est de pouvoir soumettre à l’IA des informations qui proviennent de différents silos de données entretenus par différentes directions métier dans l’entreprise.
Pure Fusion existait déjà depuis deux ans. Mais il s’agissait jusque-là d’un service web, tarifé en option, uniquement destiné à lier entre elles des baies FlashArray en mode bloc. Cette option, non seulement n’a pas connu un très grand succès commercial, mais elle était surtout totalement inutilisable dans le cadre d’une IA qui, elle, accède aux données en mode fichier ou objet. La nouvelle version 2 de Pure Fusion sera intégrée gratuitement, d’ici à la rentrée, dans le système Purity de toutes les baies de Pure Storage, c’est-à-dire y compris dans les NAS FlashBlade.
Enfin, le nouvel assistant Copilot intégré à la console d’administration Pure1 des baies Purity est juste un moyen de lancer des opérations de maintenance et de diagnostic avec de simples ordres écrits en langage courant dans l’interface d’un chatbot. Comme absolument tous les autres fournisseurs de stockage, de serveurs, de solutions de sauvegarde, ou encore d’équipements réseau qui ont déjà fait la même chose, Pure Storage prétend que ne plus avoir à passer par d’interminables menus, onglets et autres boutons contribuera à améliorer l’efficacité et le confort des administrateurs.
Interview du PDG Charles Giancarlo
Pour mieux comprendre comment Pure Storage entend se positionner sur le marché face à ses concurrents – qui s’adaptent tout autant à l’IA – LeMagIT est parti à la rencontre de son PDG, Charles Giancarlo (en photo). Interview.
LeMagIT : Quel est l’impact de l’intelligence artificielle sur votre activité commerciale ?
Charles Giancarlo : Il y a d’abord un impact sur l’approche du stockage en entreprise. L’IA, qui propose de rassembler toutes les données dans une base de connaissance commune, fait prendre conscience aux clients qu’ils seront handicapés s’ils persistent à déployer des silos individuels (là, une marque de stockage pour tel business, là, une autre…). Il est nécessaire d’avoir une cohérence de la technologie du stockage à l’échelle de l’entreprise, comme c’est déjà le cas pour le réseau.
Charles GiancarloPDG, Pure Storage
Après, vendre des baies de stockage pour l’IA – et plus exactement pour les grands clusters de GPU qui entraînent les modèles d’IA – est surtout une question de prestige commercial. Cela n’a pas encore d’impact significatif sur nos résultats.
LeMagIT : Néanmoins, l’IA va-t-elle vous faire vendre plus de FlashBlade que de FlashArray ?
Charles Giancarlo : Ce n’est pas le cas à l’heure actuelle. Mais je pense que, oui, les ventes de solutions pour le stockage de fichiers et d’objets vont prendre le pas sur celles dédiées au stockage en mode bloc. À terme. Je ne sais pas quand. Notez cependant que nos FlashArray disposent désormais d’un mode fichiers.
LeMagIT : Dell et HPE se vantent d’avoir significativement augmenté les performances de leurs ports Ethernet ou Infiniband pour être certifiés avec des clusters DGX de Nvidia. Pas vous ?
Charles Giancarlo : Nos concurrents prétendent cela, car ils vendent aussi des switches réseau – ce que nous ne faisons pas – et c’est cela qu’ils promeuvent. Ce sont leurs switches réseau qui atteignent 800 Gbit/s en capacité de routage. Leurs châssis de stockage en eux-mêmes sont comme les nôtres : ils offrent des connexions individuelles de 100 Gbit/s vers les serveurs. Un débit qui n’est jamais utilisé au maximum, même avec le protocole GPU Direct que, bien évidemment, nous prenons en charge.
Vous savez, la conformité DGX – dont nous nous revendiquons tous, et qui est très importante pour les clients – consiste juste à avoir passé certains tests menés par Nvidia. Mais cette conformité ne dit rien des performances atteintes par le stockage. Et nous prétendons offrir les meilleures performances, tous clusters de stockage confondus.
J’ajoute que nous le faisons avec des connexions Ethernet. Nous n’avons pas l’intention d’adopter l’Infiniband.
LeMagIT : Pouvez-vous donner plus de détails sur les logiciels Open source pour l’inférence et le RAG que vous comptez livrer avec vos baies ?
Charles Giancarlo : Nous allons proposer un ensemble de logiciels par domaine d’activité. Par exemple, pour le RAG, il existe une douzaine de bases de données vectorielles différentes, qui sont plus ou moins adaptées selon que vous travaillez dans le secteur financier, de l’énergie, ou dans les médias. Et cela vaut aussi pour les solutions de curation des données, de préparation, etc.
Notre idée est véritablement d’offrir d’ici à la rentrée des solutions préconfigurées, prêtes à l’emploi, pour des utilisateurs qui sont plus des scientifiques de la donnée que des ingénieurs informatiques. À partir d’une interface graphique la plus simple possible pour eux, ils pourront configurer leur environnement et être opérationnels en moins d’une heure.
Un point technique intéressant, par exemple, est que la vectorisation des documents peut, dans certains cas, multiplier par dix leur taille. Selon les types de documents dans votre domaine d’activité, nous serons en mesure de les dédupliquer le plus efficacement possible pour que vous n’ayez pas à acheter dix fois plus de capacité de stockage.
LeMagIT : À propos de Pure Fusion v2, ne pensez-vous pas que les entreprises préféreront des solutions neutres, comme celle d’Hammerspace, qui regroupent les baies, quelle que soit leur marque ?
Charles Giancarlo : Conceptuellement, la solution d’Hammerspace est très intéressante. Mais vous savez, je pense qu’ils ne l’ont pas encore suffisamment vendue à grande échelle pour que l’on puisse se rendre compte de ce qu’elle est véritablement capable de faire.
Ce qui nous gêne le plus avec ce genre de solution est qu’elles alignent toutes les structures de fichiers sur leur plus petit dénominateur commun : vous perdez les avantages opérationnels offerts par nos FlashBlade, mais aussi ceux des NAS NetApp ou Isilon.
Le gros avantage de Pure Fusion v2 est qu’il fonctionne en mode fichiers, en mode objet et en mode bloc, alors que ce dernier n’est pas géré par Hammerspace. Cela signifie que Pure Fusion v2 peut réunir ensemble nos FlashArray, nos FlashBlade, et aussi nos services de stockage Purity présents sur AWS et Azure. Comme je le disais au début, cela participe du nouveau besoin de cohérence du stockage à l’échelle de l’entreprise.
LeMagIT : Maintenant que vous avez, vous aussi, un assistant Copilot d’IA, quelle est la prochaine étape dans l’administration de vos baies ?
Charles GiancarloPDG, Pure Storage
Charles Giancarlo : Le point intéressant est qu’il ne s’agira pas de laisser l’IA administrer toute seule nos baies ! Nous avons une IA riche de sept ans de connaissances sur le fonctionnement de 90 % de nos baies chez les clients – les 10 % restants étant des clients qui n’ont pas voulu partager leurs métriques.
Avec un tel bagage, notre IA pourrait déjà demander toute seule à Pure Fusion v2 de déplacer ou rééquilibrer automatiquement des charges de travail entre nos différentes baies. Cependant, nos clients nous ont demandé de ne surtout pas le faire !
Charles GiancarloPDG, Pure Storage
Ils souhaitent que notre IA se contente de donner les informations à des humains qui, eux, prennent la décision d’enclencher ou non un mécanisme. Car l’humain peut être tenu pour responsable, mais pas l’IA.
De fait, l’évolution des systèmes d’IA pour l’administration sera plutôt, selon moi, que les assistants Copliot pourront à l’avenir servir à commander des systèmes extérieurs. Je vous confie ainsi que Nvidia nous a demandé d’intégrer notre IA avec davantage de fonctionnalités dans un système d’information, de sorte que l’administrateur puisse accéder à ces fonctionnalités sans quitter le Copilot de nos baies de stockage.