Eclipse Digital - Fotolia
L'innovation mémoire, clé du futur des systèmes informatiques
La quête d'un successeur à la mémoire DRAM est lancée et elle pourrait bouleverser les architectures des systèmes au coeur des datacenters. Mais il ne s'agit que de l'une des évolutions multiples qui vont chambouler les serveurs dans les années à venir, explique Danny Cobb le patron de la stratégie technologique de Dell Technologies.
Si la mode est au software defined et si l’innovation logicielle semble aujourd’hui éclipser l’innovation matérielle, une révolution technologique pourrait profondément changer la donne au sein des datacenters, celle des technologies mémoire. Pour la première fois depuis 40 ans, des alternatives semblent émerger face à la DRAM, qui promettent une efficacité accrue, la persistance des données et des coûts réduits. Avec en corollaire un impact profond sur l’architecture des systèmes informatiques.
Pour faire le point sur ces innovations, nos confrères de SearchDataCenter ont discuté avec Danny Cobb, vice-président de la stratégie technologique mondiale chez Dell Technologies. Cobb a été témoin de beaucoup de changements au cours des années — dans son rôle actuel — il était l’un des CTO d’EMC – mais aussi en tant que responsable technique de longue date chez Digital Equipment Corp.
Reprenant une thèmatique chère à HPE avec The Machine, Cobb revient notamment sur l'impact que pourrait avoir l'émergence des nouvelles mémoires persistantes sur les architectures informatiques et les applications.
Vous avez évoqué publiquement les évolutions que connaît la mémoire Flash du monocouche (SLC) au multicouche. Au-delà de cette évolution quelles sont à votre avis les technologies qui seront essentielles pour le futur centre de données ?
Danny Cobb : Il y a cette idée d’utiliser l’intelligence artificielle (IA) et les techniques d’apprentissage automatique pour optimiser l’infrastructure en temps réel. Nous sommes activement impliqués dans des travaux qui étudient ces nouveaux modèles de calcul — unités de traitement graphique, unités de traitement tensoriel, processeur programmables (FPGA) offerts comme comme un service disponible sur la « fabric » du datacenter.
L’idée est d’utiliser des techniques d’apprentissage automatique et d’IA pour planifier les charges de travail en fonction des ressources disponibles dans votre centre de données. Il y a trois ou quatre ans, chaque charge de travail s’appuyait sur une infrastructure virtualisée homogène à base de serveurs x86. C’est le monde de l’informatique homogène.
Le nouveau monde sera celui de l’informatique hétérogène. C’est celui des unités d’accélération dédiées, de l’IA accélérée, avec des FPGA programmés dynamiquement dans le centre de données. L’infrastructure elle-même doit acquérir plus d’intelligence, et nous voyons la progression de ce style d’infrastructure et de ce style d’informatique et de charge de travail sur nos plateformes à mesure qu’elles évoluent.
La désagrégation et l’infrastructure composable semblent être la réponse locale au cloud public. Quel est son avenir dans le centre de données ?
Cobb : En tant que professionnel des technologies de l’information, l’idée est de faire tourner le plus de charges de travail et d’obtenir le plus de valeur et de traiter le plus de données par unité de temps et par unité de coût sur l’infrastructure.
Le tout premier problème que l’infrastructure convergée a résolu est le fait que les clients peuvent désormais acheter toute une pile de TI qui fonctionne comme un ensemble cohérent... [Pour un responsable IT, cela veut dire que ] Je peux en prédire la performance, et j’en comprends le coût et que mes équipes n’ont pas à le faire pour moi.
Maintenant, je veux déployer ces technologies de façon plus granulaire. Cela nous a amenés à l’hyperconvergé. Désormais, je peux acheter des unités plus petites — un seul serveur de 1U, ajouter des capacités de gestion et d’orchestration pour rendre le matériel plus facilement administrable, mettre une pile de logiciels de stockage partagé et avoir un seul pool de stockage capable d’évoluer avec le nombre de nœuds.
Aujourd’hui, qu’il s’agisse d’Intel ou d’AMD ou d’autres architectures, nous avons fondamentalement des architectures qui couplent de façon étroite la mémoire au traitement via la mémoire DDR [double data rate]. C’est une interface difficile à gérer si vous voulez mutualiser ou désagréger la mémoire. Mais il y a des exemples dans l’industrie et des roadmaps qui s’attaquent à ce problème. Ce sont les technologies de bus telles que Gen Z, OpenCAPI et C6. C’est ce qui commence à nous permettre de séparer la hiérarchie de la mémoire traditionnelle du modèle de traitement pour offrir plus de flexibilité.
Une technologie comme le bus PCIe [PCI Express] s’est imposée depuis longtemps comme le bus d’entrée-sortie fondamental des serveurs et elle a fait un excellent travail en doublant la bande passante tous les deux ans et en [divisant] en parallèle la latence [par deux]. À l’échelle d’un système unique, PCIe est un excellent bus système, mais il s’agit d’un bus horrible à l’échelle multisystème.
PCIe n’est pas vraiment une fabric réseau. Il n’est pas possible de le reconfigurer dynamiquement et PCIe ne tolère pas vraiment la connexion et la déconnexion de périphériques en temps réel comme le permettent d’autres technologies réseau. Dans ce domaine des bus d’interconnexion, c’est là qu’entre en jeu le RDMA sur Ethernet et son usage comme une fabric entre de multiples systèmes. Cette aptitude multisystème s’étend aussi à certains bus mémoire, que j’ai mentionnés auparavant, qu’il s’agisse de C6 ou Gen Z.
Ces technologies — RDMA over Ethernet (de 25 à 100 Gbit/s) et les nouveaux bus mémoire — représentent un nouveau champ d’innovation pour les systèmes.
Quelle technologie émergente a l’attention de tout le monde ?
Cobb : celle qui vient en premier à l’esprit est l’évolution des architectures. Imaginez que vous disposiez d’une mémoire de classe DRAM, économique et très performante, mais qui soit aussi persistante. Comment cela change-t-il par exemple les applications où vous avez des capteurs IoT [internet des objets] ?
Si je peux commencer à mettre des données en mémoire tampon persistant dans un appareil très peu coûteux, je dispose d’un élément de stockage persistant à la bordure, ce que je ne peux pas vraiment faire aujourd’hui. Si je mets de la flash, c’est trop lent. Si je mets de la DRAM, alors je dois mettre une batterie pour ne pas perdre l’état [en cas de défaut d’alimentation]. Cela ouvre la voie à une toute nouvelle classe d’architecture rendue possible par la mémoire persistante dans tous ces dispositifs IoT.
L'émergence d'une vraie mémoire persistante, à même de remplacer la mémoire DRAM, sera une étape disruptive. Si l’on rend la mémoire persistante, il faut commencer à changer la façon dont nous écrivons le logiciel. Nous n’avons plus à écrire de logiciel pour faire des lectures et des écritures POSIX sur un système de fichiers avec un volume manager. Au lieu de cela, on a des applications qui chargent et dépilent des données d’un processeur directement dans la mémoire. Ces applications capables de tirer parti nativement de la mémoire persistante vont voir leur adoption s’accélérer.
Nous en voyons déjà des exemples aujourd’hui avec le passage à SAP HANA ou l’évolution vers la gestion de données in-memory des applications transactionnelles. Mais, ce sont des étapes essentiellement évolutives. L’étape révolutionnaire — au moins aussi révolutionnaire que le passage à la programmation multithread il y a 20 ans — est l’adoption de ce modèle de mémoire persistante pour les applications. Mais cela va nécessiter l’écriture de nouveaux logiciels et de nouveaux langages de programmation.
Traduit et adapté de l'anglais par Christophe Bardy