Seagate présente les premiers disques durs avec une connectique de SSD
D’ici à 2024, Seagate commercialisera des disques durs avec une interface NVMe. Cela ne les rendra pas plus rapides, mais cette décision devrait permettre de réaliser des économies dans les datacenters.
Seagate dévoile des disques durs avec une interface… NVMe ! Normalement uniquement destinée aux SSD, cette connectique doit ici simplifier la consolidation de différents disques dans une seule baie de stockage. Présentés en avant-première lors du sommet annuel Open Compute Project consacré au design des infrastructures pour datacenter, ces disques durs ne devraient pas être disponibles sur le marché avant plusieurs mois.
La connectique NVMe consiste à relier un SSD au serveur par le biais d’un bus PCIe, comme si ses cellules NAND étaient une extension de mémoire, en allant directement chercher les données à une adresse, plutôt qu’en envoyant des ordres SCSI pour déplacer une tête de lecture. Ces accès directs – un SSD n’a de toute façon pas de tête de lecture – rendent les connexions NVMe bien plus rapides que les connexions SAS/SATA que l’on trouve historiquement dans le stockage. En juin dernier, le consortium en charge de cette technologie l’a fait évoluer vers une norme NVMe 2.0 qui la rend compatible avec les disques durs.
« L’intérêt d’utiliser des disques durs avec une connectique NVMe est que l’administrateur du stockage n’a plus à manuellement orienter tels flux de données vers une baie de disques durs SAS/SATA et tels autres vers une baie différente comprenant des SSD. Tous les types de stockage sont réunis dans un espace plus petit, avec une seule consommation d’énergie et la baie décide éventuellement toute seule quelle application accède à quels disques », commente Ed Burns, analyste chez IDC.
Des tiroirs de disques NVMe-over-Fabric, moins chers que les baies SAN/NAS
Du côté de Seagate, on veut surtout insister sur le fait qu’adapter une connectique NVMe à un disque dur mécanique ne le rend pas subitement aussi rapide qu’un SSD. « La performance n’est pas ici l’objectif. L’objectif est uniquement la simplification », insiste David Allen, de la direction technique de Seagate.
Son collègue Mohamad El-Batal, qui travaille pour le même service, ajoute l’argument du prix. Les disques durs en eux-mêmes coûtent moins cher que des SSD. Mais, au-delà, il s’agit surtout de ne plus mettre de carte contrôleur dans la baie de disques. Il prend l’exemple d’un tiroir de disques NVMe-over-Fabrics qui pourrait être directement piloté par un serveur. C’est-à-dire avec bien moins d’électronique embarquée que sur les baies SAN/NAS actuelles, lesquelles reviennent d’ailleurs à de vrais serveurs maquillés en simples tiroirs de disques.
Cette économie d’électronique va de pair avec une économie de moyens. « L’administrateur gère beaucoup de moins de complexité. Il connecte tous ses disques, SSD ou disques durs mécaniques, sur les mêmes connecteurs, soit directement dans les slots de la machine, soit via un hub PCIe », dit Mohamad El-Batal.
Des disques durs NVMe pour réduire les coûts d’infrastructure du cloud Azure
L’un des principaux supporters des disques durs NVMe est Microsoft. Co-présentant la technologie avec Seagate lors de l’évènement Open Compute Project, le géant du logiciel a expliqué que ces disques lui permettraient de simplifier les baies de stockage qui constituent l’infrastructure de son cloud public Azure. Microsoft a notamment participé à la conception de ces disques au niveau de leur alimentation, pour que celle-ci soit strictement similaire à celle d’un SSD.
Pour le reste, Jason Adrian, en charge de l’architecture d’Azure, a mentionné que si l’objectif était bel et bien de connecter les disques sur un bus PCIe 4.0, leurs faibles performances pourraient de toute façon se contenter d’un bus PCIe 3.0. « Notre objectif est véritablement de simplifier l’électronique. Nous économisons le besoin d’un contrôleur SAS/SATA, que nous remplaçons par un switch PCie bien plus léger. Nous ne cherchons pas spécialement à perdre ce bénéfice en déployant un switch PCIe dernier cri », dit-il.
Ed BurnsAnalyste, IDC
Il met en avant un point important : à l’instar des SSD NVMe, les disques NVMe pourront utiliser deux ports PCIe différents, soit pour doubler leur débit soit, plus classiquement, pour disposer d’une connectique redondante. Soit, encore, pour connecter un disque dur à deux serveurs directement. « La beauté de cette technologie est que le disque dur n’a même pas besoin de se présenter sous la forme de deux LUNs différentes (unités logiques dans la nomenclature SCSI, NDR), ce qui ne complexifie même pas les efforts d’administration », note Mohamad El-Batal.
Pas pour tout de suite
La disponibilité de ces disques durs NVMe n’est pas pour tout de suite. NVMe table pour une entrée en production d’ici à 2024. Des modèles de préproduction seront fournis aux principaux fabricants de baies de disques et de serveurs, vers le troisième trimestre 2022. Et encore, il ne s’agira que de modèles à port PCIe unique.
Seagate promet que ces disques durs ne poseront aucun problème de compatibilité. Des pilotes seront disponibles pour tous les systèmes d’exploitation afin qu’ils ne les confondent pas avec des SSD classiques.
Ed BurnsAnalyste, IDC
« Le principal frein que je vois au développement commercial de ces disques durs NVMe, c’est que ces unités seront vendues avec l’objectif de réaliser des économies, mais, paradoxalement, elles coûteront plus cher que les disques durs SATA pendant les premiers mois de mise sur le marché. C’est aussi un bond technologique certain et nombre d’entreprises souhaiteront attendre que la technologie gagne en maturité. Je pense que les ventes ne décolleront pas avant plusieurs années », conclut l’analyste Ed Burns.
Concernant la maturité de la technologie, Seagate parle dans ses documentations techniques de disques « tri-modes », qui pourraient se brancher indifféremment en NVMe, SAS ou SATA. Manifestement, le fabricant n’a pas encore la certitude que le NVMe détrônera l’interface SAS/SATA.