Avec Rome, AMD prend une génération d’avance sur les puces serveurs
Présentés cette semaine à San Francisco, les prochains processeurs Epyc d’AMD pourraient servir à construire en 2019 des serveurs deux fois moins chers - ou deux fois plus puissants - que ceux reposants sur les habituelles puces Xeon d’Intel.
Dans neuf mois, Dell, HPE et consort devraient proposer des serveurs deux fois plus fins, qui occupent deux fois moins d’espace et consomment deux fois moins d’énergie pour des performances similaires à celles que l’on trouve actuellement. Cette performance, qui revient à dire que l’on pourra avoir deux fois plus de puissance de calcul ou de machines virtuelles par mètre-carré dans les datacenters sans que ça coûte plus cher, sera due – surprise – non pas à Intel, mais à son concurrent AMD.
Ses futurs Rome, nom de code de la seconde génération de ses processeurs Epyc pour serveurs, bénéficieront avec deux bonnes années d’avance d’une finesse de gravure de 7 nm. Cela leur permettra d’embarquer jusqu’à 64 cœurs, soit 128 threads par puce, tout en restant dans l’enveloppe thermique des processeurs actuels, lesquels comptent aujourd’hui 32 cœurs sur l’Epyc premier du nom, ou 28 cœurs sur le Xeon 8180, le plus puissant processeur d’Intel.
Intel, justement, devrait au même moment lancer une nouvelle génération qui, sur le papier en tout cas, échouera à faire aussi bien : gravés en 10 nm, ses futurs processeurs n’amélioreraient le rendement énergétique et spatial que de 50 %.
TSMC, la clé industrielle pour battre Intel
« Nous avons fait un pari : celui de pouvoir rentabiliser des processeurs basés dès aujourd’hui sur la génération suivante. Car le bénéfice qu’ils apportent en termes de consommation et de puissance est censé nous donner un avantage décisif sur la concurrence », a lancé Mark Papermaster, le directeur technique d’AMD, lors d’un évènement « Horizon’18 » que le fondeur organisait cette semaine à San Francisco.
« Pour y parvenir, nous avons changé de fournisseur industriel. Nous passons désormais par les usines de TSMC. Et nous nous félicitons de ce choix, car les premiers lots de wafers [tranche ou plaque de semi-conducteur, NDLR] qui sortent actuellement de leurs chaines affichent un « yield » [taux de circuits gravés sans erreur, NDLR] très bon. Je peux donc confirmer que nos puces sont actuellement livrées aux constructeurs de serveurs et qu’elles seront disponibles en quantité au moment du lancement des prochaines machines. »
Le taiwanais TSMC fabrique déjà les semi-conducteurs de Qualcomm (dont les puces 4G et bientôt 5G des téléphones), Nvidia, Broadcom (à la base des équipements réseau), Marvell (stockage) ainsi que les processeurs qu’Apple met dans ses iPhone et iPad. Les ventes de ces derniers sont telles – environ 250 millions d’unités par an, tous modèles confondus, soit autant que le nombre total de PC et de serveurs vendus sur la même période, selon IDC – que TSMC a rentabilisé ses chaînes de production plus rapidement qu’Intel. Au point de basculer sur la génération 7 nm avec deux ans d’avance sur son concurrent.
Le point faible d’Intel : ses usines s’essoufflent
Historiquement, Intel avait réussi à devenir hégémonique sur le marché des processeurs pour serveurs et PC, grâce à une flotte d’usines réservée à la seule production de ses puces et rentabilisées dans le temps dans la fabrication de composants de second plan, comme des contrôleurs de stockage ou de réseau. Cependant, cette stratégie a été mise à mal par une baisse graduelle des ventes de PC et une augmentation faible de celles des serveurs depuis six ans. Selon IDC, il devrait se vendre cette année un peu plus de 240 millions de PC (62 millions au dernier trimestre) et 12 millions de serveurs.
A date, Intel doit investir 7 milliards de dollars pour terminer d’ici à 2020 l’usine Fab42 en Arizona, qui doit lui permettre de fondre enfin des processeurs en 7nm. D’ici là, TSMC aura finalisé son usine Fab18 à 17 milliards de dollars pour produire des puces gravées en 5 nm.
Une architecture en étoile plus efficace
En termes de design, l’Epyc version Rome est composé d’un bloc central d’entrées-sorties contenant huit contrôleurs mémoire (vers 4 To de RAM DDR4 et 128 lignes PCIe 4.0 par socket) et huit bus Infinity Fabric (vers les coeurs), entouré de huit « chiplets » qui contiennent chacun huit cœurs x86 Zen 2. Cette conception en étoile permettrait à AMD de réduire la latence lorsqu’un cœur souhaite accéder aux données manipulées par n’importe quel autre et accélérerait l’exécution d’une application d’un facteur 1,25.
La première version d’Epyc est dépourvue de ce bloc central. Elle contient plutôt quatre « dies », des circuits avec deux bancs de quatre cœurs qui ont leurs propres contrôleurs et qui communiquent entre eux en file indienne. Un design qu’Intel avait moqué l’année dernière en argumentant que l’Epyc 32 cœurs n’était finalement que quatre processeurs octo-cœurs montés en série - avant de faire de même pour ses derniers Xeon E à 48 coeurs qui assemble deux dies de 24 coeurs. Même si les utilisateurs des premiers serveurs Epyc n’ont pas constaté que cela nuisait aux performances, on ne pourra de toute façon plus accuser AMD d’avoir bidouillé pour intégrer plus de cœurs qu’Intel.
En ce qui concerne les 64 cœurs de Rome eux-mêmes, leur architecture Zen 2 est surtout améliorée sur les calculs flottants, avec un bus de traitement sur 256 bits, comme chez Intel, au lieu de 128 bits sur les actuels Epyc premiers du nom. Cette remise à niveau devrait permettre à AMD d’exécuter aussi rapidement qu’Intel les applications liées au HPC (« high performance computing »), à l’encodage de médias, à l’entraînement de moteurs de Machine Learning et... au minage de crypto-monnaie.
Deux fois plus de VM que la génération actuelle, en restant deux fois moins cher qu’Intel
AMD ne communique pas encore sur les fréquences des futurs processeurs Rome et se contente d’avancer que les threads s’exécuteront jusqu’à 1,25 plus vite qu’ils ne le faisaient auparavant et, ce, tout en consommant deux fois moins d’énergie. L’enveloppe énergétique globale et la fréquence des Epyc Rome pourraient donc rester les mêmes que ceux des premiers Epyc, mais avec deux fois plus de machines virtuelles ou de traitements Big Data exécutés simultanément puisqu’il y a deux fois plus de cœurs dans Rome. Dans le même temps, l'enveloppe thermique des puces Intel devrait fortement s'accroitre, plusieurs constructeurs partenaires du fondeur prévoyant des puces dépassant les 300W.
Il est à noter que le bloc d’entrée-sortie est encore gravé, contrairement aux cœurs Zen 2, en 14 nm. Selon des représentants d’AMD que LeMagIT a pu interroger lors de l’événement Horizons’18, cela n’aurait aucun impact sur la vitesse des cœurs et permettrait de maintenir un prix par processeur très agressif par rapport aux Xeon d’Intel. Le ratio actuel est qu’un serveur à base d’Epyc est deux fois moins cher qu’un serveur à base de Xeon avec un nombre équivalent de cœurs.
Intel s’efforce de rester dans la course
La veille de l’annonce de Rome, Intel a pris les devants en dévoilant un nouveau processeur Xeon « Cascade-Lake AP » doté de 48 cœurs et toujours en 14 nm. Ironiquement, ce processeur repose sur le même design que celui du premier AMD Epyc qu’Intel avait vigoureusement critiqué : il s’agit de deux Xeon 24 cœurs réunis dans le même package. Au mieux, Intel reprend sur AMD l’avantage du nombre de canaux mémoire par socket, puisque ce Cascade-Lake en totalise 12, comme sur les serveurs Xeon bi-socket, alors qu’un seul Epyc n’a que huit canaux. Au pire, il se peut que ce Xeon Cascade-Lake AP consomme et chauffe autant que deux Xeon 24 cœurs et qu’il ne permette pas, en fin de compte, de multiplier par deux le rendement énergétique et spatial des serveurs.
Selon les précédents témoignages obtenus par le MagIT sur les avantages des processeurs Epyc d’AMD, il est probable que les ventes d’Intel résistent à court terme à l’assaut de Rome. Il n’est en effet pas possible d’étendre les fermes de machines virtuelles, qui fonctionnent aujourd’hui en entreprises essentiellement sur des serveurs Intel, avec des serveurs AMD (des fonctions comme vMotion ne fonctionnent pas, les pilotes embarqués dans les VM ne sont pas forcément compatibles, etc.). En revanche, les ventes d’Epyc, en version actuelle comme en version Rome dans neuf mois, sont susceptibles d’exploser dans les nouveaux projets. Et comme le confirment plusieurs constructeurs, AMD n'a pas ce problème sur les marchés du calcul, du Big Data et des applications cloud native, où il gagne du terrain rapidement sur son concurrent, au point que HPE et Dell ne cachent plus leur intention de doper leurs gammes Epyc dans le courant 2019.
Du 7 nm aussi pour les GPU et les Epyc de troisième génération
Lors de son événement, AMD a confirmé avoir d'ores et déjà finalisé la génération suivante de ses puces, à base de cœurs Zen 3 toujours gravés en 7 nm. Elle devrait arriver dans les serveurs vers la fin 2020, après que TSMC aura pu lui allouer des chaînes de montage. Les cœurs Zen 4, avec une finesse de gravure plus réduite, seraient actuellement en développement.
Simultanément à la sortie des Epyc Rome, AMD lancera une nouvelle génération de cartes GPU, les Radeon Instinct MI60, disposant également de 64 cœurs en 7 nm et utilisant aussi le bus PCIe 4.0. Destinées aux datacenters, ces cartes serviront à la fois au HPC, mais aussi aux bureaux virtuels. Elles sont censées pouvoir gérer simultanément l’affichage de 16 stations de travail virtuelles et une seule machine pourra en utiliser huit simultanément pour exécuter ses calculs.