Accélérateurs : les GPUs, DPUs et autres architectures serveur en 2023
Introduction
Outre les processeurs, ce sont les GPUs, avec leur faculté d’accélérer les calculs matriciels, qui mobilisent l’attention de tous les projets basés sur l’IA ou la simulation. Nvidia remplace ainsi son GA100 par un GH100 capable de résoudre des équations 1,5 fois plus rapidement. Point intéressant, le GH100 ne sert plus qu’à faire des cartes H100 de supercalcul ; contrairement à son prédécesseur, il n’est plus déclinable en carte graphique. Selon Nvidia, il serait trop spécialisé pour être versatile. Cette spécialisation serait le secret de son optimisation.
Intel, qui entend redevenir la locomotive des puces ultra-performantes, est totalement d’accord avec l’analyse de son concurrent : pour atteindre les meilleurs scores sur une application, il faudrait proposer un design conçu exprès pour cette application. C’est ainsi qu’il se lance dans des architectures « en tuiles ». Désormais, ses produits interconnecteront dans la même puce certaines quantités de cœurs CPU, GPU, RAM, ou cache qui seront dosées au cas par cas. Pour parvenir à proposer autant de variantes sans que cela lui coûte cher en production, Intel mise sur un socle d’assemblage révolutionnaire, où les circuits communiquent entre eux aussi vite que s’ils avaient été gravés ensemble.
Pour autant, les nouvelles vedettes des puces électroniques sont les DPUs, c’est-à-dire des puces d’accélération pour les cartes réseau. Et, par extension, pour les opérations de stockage qui se font en réseau. Nvidia a mis au point les puces BlueField, notamment pour réduire la bande passante sur les réseaux Infiniband qui relient entre eux les modules d’un supercalculateur. Intel, AMD, le Français Kalray et même la fondation Linux mettent à présent toute l’énergie de leurs développeurs dans les DPUs. D’abord pour réduire la latence entre des serveurs. Et aussi pour augmenter la vitesse des baies de SSD connectées en NVMe/TCP, un réseau bien moins cher que le Fiber Channel.
Encore mieux que les DPUs, la nouvelle architecture CXL qui arrive avec les processeurs de 2023 promet de mettre en réseau des cartes GPUs et des barrettes de RAM ! L’intérêt est économique. CXL doit permettre aux hébergeurs et aux grands datacenters d’aménager des pools de composants électroniques partageables entre les serveurs. Plutôt que d’acheter des machines avec des caractéristiques haut de gamme, ils leur distribueront à tour de rôle la puissance dont elles ont de temps en temps besoin.
Ce guide fait donc un point sur les caractéristiques des composants électroniques qui doivent épauler en 2023 les processeurs pour accélérer les serveurs.
1GPUs-
De plus en plus de cœurs spécialisés
Serveurs : Intel multiplie les GPUs et les processeurs assemblés en « tuiles »
Gaudi2, Greco, Artic Sound-M, Ponte Vecchio, Xeon SPR-HBM... Intel produit plus rapidement ses prochaines puces pour datacenters grâce à un assemblage particulier de circuits gravés indépendamment. Lire la suite
Raja Koduri : « le packaging replace Intel en tête des semiconducteurs »
Dans cette interview, le patron du design pour les puces hautement performantes expose une technique d’avant-garde dans l’assemblage des circuits. Elle doit permettre à Intel de produire des puces à l’efficacité inédite. Lire la suite
Serveurs : Nvidia renouvelle ses gammes pour accélérer les datacenters
Le GPU H100 est désormais disponible, y compris sur une carte PCIe qui accélère également le réseau. Suivront des serveurs qui en embarquent huit exemplaires, puis le GPU graphique L40, lui aussi sous forme de cartes et de serveurs. Lire la suite
Informatique embarquée : Nvidia livre sa feuille de route
Les Jetson, des cartes similaires aux Rapsberry Pi, intégreront bientôt l’architecture du précédent GPU Ampere. Une carte pour automobiles, Drive, arrivera d’ici à 2025 avec le nouveau GPU Hopper et le processeur Grace. Lire la suite
2DPUs-
Accélérer le réseau… et le stockage en réseau
Réseau : Pluribus lance un SDN basé sur des cartes accélératrices
La solution proposée par la startup permettrait d’étendre la quantité de serveurs dans un datacenter, sans avoir à muscler à chaque fois les équipements réseau. Lire la suite
Réseau : AMD rachète Pensando pour se lancer dans les DPUs
L’acquisition d’un montant de 1,9 milliard de dollars doit permettre au constructeur de se positionner sur le marché des smartNICs, des cartes qui accélèrent et enrichissent les traitements réseau. Lire la suite
Stockage : Kalray prépare un bundle avec son DPU et le système Pixstor
Le fabricant français de la puce accélératrice MPPA commercialisera bientôt une solution NAS accélérée qui pourrait inclure des baies de 24 SSD NVMe. Lire la suite
La fondation Linux s’empare des puces DPU pour les standardiser
Les DPU, lancés récemment pour accélérer les communications entre serveurs, fonctionnent avec des logiciels propriétaires. La fondation veut en faire une technologie générique utilisable par les entreprises. Lire la suite
3Interconnexions-
Des pools de RAM et de GPUs en réseau
Serveurs : que faut-il attendre de l’architecture CXL ?
La technologie CXL promet essentiellement de partager la RAM entre les serveurs, ce qui doit permettre d’augmenter les performances sans les coûts. Mais il lui manque pour l’heure des mécanismes essentiels. Lire la suite
Serveurs : Liqid relance les architectures composables
La startup propose une baie qui partage des extensions PCIe en réseau, via des liens en 16 Go/s cumulables. L’enjeu serait par exemple de disposer d’un pool de GPUs indépendants des serveurs. Lire la suite
Intel miniaturise un contrôleur optique capable d’atteindre des Tbit/s
L’exploit d’Intel doit permettre de remplacer bientôt les câbles réseau Ethernet en cuivre par des fibres optiques qui coûteraient aussi peu cher et communiqueraient jusqu’à 1 000 fois plus vite. Lire la suite
Mémoires : Weebit Nano reparle de ses ReRAM
La startup israélienne a passé les derniers tests de validation avant de pouvoir enfin lancer la production de ses mémoires similaires aux Optanes d’Intel, et intégrables, elles, dans des processeurs. Lire la suite