plus69free - Fotolia

Processeurs : Intel et AMD livrent leurs résultats et leurs stratégies

AMD bat tous les records de vente quand Intel, qui engrange tout de même deux fois plus de chiffre d’affaires, reconnaît des résultats décevants. En coulisses, Intel investit lourdement dans son avenir et AMD tente de capitaliser sur l’existant.

Intel et AMD, les deux fournisseurs de processeurs x86 pour PC et serveurs, viennent de publier leurs derniers résultats trimestriels, respectivement 12,8 et 5,84 mds $. Autrefois hégémonique, Intel ne pèse donc plus que deux fois et quelques le poids d’AMD. Intel fait comprendre à ses investisseurs que ses résultats « moyens » sont le prix nécessaire à payer pour forger petit à petit les architectures qui le maintiendront durablement à la tête du marché.

De son côté, AMD est euphorique. Mais ses récents développements semblent indiquer que le fabricant mise désormais plus sur la rentabilité de l’existant que sur l’innovation.

Ces résultats sont publiés dans un contexte où Nvidia a atteint, en mai, un CA trimestriel de 26 mds $. Le paradoxe est que Nvidia vend majoritairement des GPU qui ont besoin de processeurs Intel ou AMD pour fonctionner. Grâce à l’IA, les puces inféodées aux processeurs ont désormais plus de valeurs que les processeurs.

Le contexte est aussi celui de la montée en puissance des processeurs ARM. Quelques heures à peine après la publication des résultats d’Intel et d’AMD et l’exposé de leurs stratégies respectives pour la suite, Ampere annonçait aux fabricants de serveurs et aux hyperscalers l’arrivée d’un processeur AmpereOne Aurora doté de 512 cœurs. C’est-à-dire avec 2 à 2,5 fois plus de cœurs que les futurs modèles promis par Intel et AMD à la même clientèle.

Un CA de 5,84 mds $ encourageant face à un CA de 12,8 mds $ décevant

Le dernier chiffre d’affaires trimestriel d’AMD atteint 5,84 milliards de dollars ; il est 9 % meilleur que celui de l’année dernière. Les processeurs Ryzen pour PC lui ont rapporté 1,5 milliard de dollars, soit une progression des ventes de 49 % en un an. Mais le résultat le plus satisfaisant est celui des puces pour datacenters, processeurs Epyc et GPU MI300X confondus : leurs ventes ont généré 2,8 mds $ de CA, soit une progression de 115% par rapport au même trimestre de 2023 ! Même les analystes les plus optimistes n’avaient pas envisagé des scores aussi bons.

En fin de compte, les activités qui freinent la progression du CA sont les puces pour consoles de jeu (648 millions de dollars, soit 59 % de ventes en moins en un an) et pour équipements embarqués (861 millions de dollars, soit 41 % de ventes en moins). La catégorie qui comptabilise les ventes de puces graphiques Radeon n’est pas très claire.

En face, Intel affiche des résultats trimestriels que Pat Gelsinger, son PDG, qualifie de « décevants ». Les ventes de processeurs Core pour PC ont rapporté 7,4 milliards de dollars (+9 % en un an) et celles des processeurs Xeon pour serveurs 3 milliards de dollars (3 % de moins en un an). En clair, si Intel vend encore cinq fois plus de puces qu’AMD sur le marché des PC, les deux concurrents sont désormais pratiquement à égalité dans les datacenters.

Le chiffre d’affaires trimestriel officiellement retenu pour Intel est de 12,8 milliards de dollars, en baisse de 1 % par rapport au même trimestre l’année dernière. En plus des processeurs pour PC et serveurs, Intel vend aussi des puces accélératrices IPU pour les équipements Ethernet (switches, cartes contrôleurs, mais aussi équipements de stockage en NVMe-oF). Ces ventes-là ont généré 1,3 milliard de dollars de revenus, soit un résultat légèrement inférieur (-1 %) par rapport à l’année dernière.

Sont également comptabilisées dans le CA d’Intel deux activités qui sont censées être juridiquement séparées à un moment ou l’autre. Les FPGA Altera ont réalisé un CA de 361 millions de dollars, en chute de 57 % sur un an. Les systèmes embarqués d’aide à la conduite Mobileye ont trouvé preneur chez les constructeurs automobiles à hauteur de 440 millions de dollars (en baisse de 3 % par rapport au second trimestre 2023). Restent 167 millions de dollars de revenus, qu’Intel qualifie d’activités « autres ». Cela dit, leur CA est le seul qui ait significativement augmenté, de 43 %.

En revanche, le chiffre d’affaires des usines Intel Foundry n’est plus, lui, comptabilisé avec le reste. Cette activité a engendré pour 4,3 milliards de dollars de commandes sur le trimestre, soit une progression de 4 %. Il est à noter qu’on ignore dans quelle proportion ce CA a été réalisé grâce aux commandes... d’Intel.

Intel : l’enjeu de se rattraper sur le marché des PC CoPilot+

Selon Pat Gelsinger, l’activité d’Intel ne peut que redécoller d’ici à la fin de l’année. Sur le segment PC, elle sera portée dès septembre par une nouvelle génération Lunar Lake de processeurs Core Ultra censés incarner la réponse d’Intel aux Snapdragon X de Qualcomm.

Pour rappel, après avoir échoué pendant des années à percer sur les postes Windows, Qualcomm a connu il y a quelques mois un succès aussi fulgurant qu’inattendu en commercialisant des versions de ses processeurs ARM qui embarquent dans leur puce toute la mémoire DRAM de l’ordinateur. Comme sur les Apple Silicon M des derniers Mac.

Alors que personne – à commencer par Intel – n’avait jamais bien compris l’intérêt financier que pourrait avoir une telle architecture, il a été découvert un peu par hasard qu’elle démultipliait les performances de l’IA. Au point que tous les constructeurs de PC ont lancé en mai dernier leurs nouvelles générations Copilot+ de PC portables « plus performants pour l’IA » avec un processeur Snapdragon X.

Dans un premier temps, les concepteurs de processeurs étaient persuadés que, pour accélérer les algorithmes d’inférence, il suffisait d’ajouter des cœurs NPU (Neural Processing Unit). Les cœurs NPU sont, à l’instar des GPU, des circuits capables d’appliquer une même fonction mathématique à plusieurs données à la fois. En l’occurrence, ils sont utilisés pour reconnaître la signification d’un bloc de pixels ou de texte, en utilisant la matrice de valeurs numériques qu’il représente pour cheminer au sein d’une base de connaissance.

Comme le NPU n’utilise que des petites valeurs numériques entières, son bus est capable de traiter plus de données en parallèle qu’un GPU. Les processeurs Core Ultra d’Intel sont ainsi dotés de NPU, au contraire des processeurs Core tout court.

Problème, si la base de connaissances n’est atteignable qu’en passant par une multitude de goulets d’étranglement vers la DRAM installée ailleurs sur la carte mère, le bénéfice du NPU est nul. Or, il se trouve que, généralement, les bases de connaissances vont au-delà de la capacité de la mémoire cache embarquée dans un processeur.

De fait, les prochains processeurs Lunar Lake intégreront une certaine quantité de DRAM LPDDR5 – plusieurs Go - qui sera accessibles aux cœurs x86 (répartis entre circuits performants et circuits économiques en énergie), aux cœurs GPU et aux cœurs NPU, lesquels accélèrent les fonctions d’inférence. Pat Gelsinger espère terminer l’année avec la vente de 40 millions de processeurs Core « pour l’IA ».

De manière assez ironique, Intel va réussir à tenir les délais qu’il s’est fixés et l’enveloppe thermique de ses processeurs grâce à TSMC, le fondeur asiatique avec lequel Intel Foundry veut rivaliser. Les Core Lunar Lake seront gravés avec une finesse de 3 nm. Les chaînes d’Intel Foundry ne descendent, pour l’instant, pas plus loin que 7 nm, soit deux générations de retard par rapport à TSMC.

Selon nos confrères de China Times, Intel dépenserait 5,6 milliards de dollars en 2024 et 9,7 mds $ en 2025 pour s’offrir les services de TSMC. Il faudra attendre fin 2025 pour que les usines d’Intel Foundry soient à leur tour capables de graver des circuits en 3 nm, sur des chaînes qu’Intel appelle « Intel 18A ».

Intel : miser sur des Xeon 6 économiques pour les hyperscalers

Côté serveurs, Intel commercialise ces jours-ci une première variété de sa sixième génération de processeurs Xeon Scalable. Appelée Sierra Forest, cette architecture interconnecte jusqu’à 288 cœurs Crestmont « économiques » (un thread par cœur) dans la même puce. Il s’agit en l’occurrence de deux circuits contenant chacun 144 cœurs, avec plus ou moins de cœurs actifs (de 64 à 144 par circuit). Ces premiers Xeon 6 sont principalement destinés aux fournisseurs de cloud, qui souhaitent densifier au maximum la quantité de cœurs par étagère rack. Sur ce créneau, les fournisseurs de cloud manifestent de plus en plus d’intérêt pour les processeurs ARM.

D’ici à la fin de l’année, Intel commercialisera une seconde variété de Xeon 6, cette fois-ci pour les serveurs traditionnels vendus aux entreprises. Cette seconde variété reposera sur l’architecture Granite Rapids capable d’interconnecter jusqu’à 128 cœurs Redwood Cove « performants » (deux threads par cœur) dans la même puce. Intel assemblera divers modèles de puces à partir de circuits pouvant contenir chacun 16 (circuit LCC), 48 (circuit MCC) ou 44 cœurs actifs ou non.

Les Xeon 6 Sierra Forest seront les derniers à être gravés avec une finesse de 10 nm. Les Xeon 6 Granite Rapids bénéficieront des nouvelles chaînes « Intel 4 » d’Intel Foundry pour une gravure en 7 nm.

Lors du prochain trimestre, les ventes de puces pour datacenter incluront également celles des GPU Gaudi 3, annoncés en avril et commercialisés dès cet été. L’argument d’Intel est que Gaudi 3 fournira « deux fois plus de performances par dollar que le leader du marché », sans que l’on sache précisément si ce « leader » est le H100, le H200 ou les B100/B200 de Nvidia. Des tests de performance devraient être publiés d’ici à la fin de l’été.

Notons enfin qu’Intel croie beaucoup au succès de ses prochaines générations de puces accélératrices pour contrôleurs réseau et stockage. Appelées IPU chez Intel (et DPU ailleurs), elles permettront aux baies de stockage SAN et NAS de communiquer avec les serveurs en RoCE (RDMA over Converged Ethernet), une sorte d’Ethernet sans perte de paquets qui réduit drastiquement la latence.

AMD : un optimisme qui parie sur le succès des GPU pour serveurs

Du côté d’AMD, il est probable que le CA des puces pour datacenter ait connu un bond si important ce trimestre grâce à l’achat par Microsoft d’une quantité importante de GPU MI300X pour motoriser de nouvelles VM ND MI300X v5 sur Azure.

Celles-ci sont spécialisées dans l’exécution de modèles d’IA Open source (tous ceux disponibles sur Hugging Face) et peuvent fournir la puissance de 8 GPU avec un total de 1,5 To de mémoire HBM. La mémoire HBM, déjà présente sur les GPU de Nvidia (et fournie aussi sur Gaudi 3) est une DRAM non seulement intégrée à la puce, mais qui fonctionne aussi à la même vitesse qu’elle, comme une mémoire cache L2.

Les bonnes ventes de GPU MI300X devraient se poursuivre au troisième trimestre, au fur et à mesure que Microsoft équipe ses différentes régions. Pour l’heure, seules les régions d’Azure en Amérique du Nord en sont équipées.

De fait, AMD justifie son optimisme concernant les résultats de ses prochains trimestres avec l’arrivée de nouvelles générations de GPU appartenant à cette catégorie. Au quatrième trimestre, une nouvelle version MI325X arrivera sur le marché. Elle sera dotée de 288 Go de mémoire HBM, contre 192 Go sur le modèle actuel.

La génération suivante, appelée MI350X, débarquera quelque part en 2025. Elle comprendra des cœurs CDNA 4, censés être 35 fois plus rapides que les CDNA 3 des MI300X et MI325X, et toujours 288 Go de mémoire HBM. AMD veut croire que la génération suivante, dite MI400X, sera disponible en 2026.

AMD : la stratégie Epyc se recentre sur la rentabilité maximale

Côté Epyc, AMD ne se précipite pas pour annoncer sa prochaine génération de processeurs pour serveurs basés sur des cœurs Zen 5 gravés en 4 nm. À la place, le fabricant met en avant ses déclinaisons de modèles basés sur des cœurs existants.

Les Epyc à base de cœurs Zen 4 gravés en 5 nm sont sur le marché depuis la fin de l’année 2022, avec les modèles 9004 qui offrent jusqu’à 96 cœurs par socket, à raison de 12 circuits CCX contenant chacun 8 cœurs actifs ou non et 32 Mo de cache. Une version 9004X, avec 16 circuits CCX (128 cœurs), existe pour les supercalculateurs.

Ils ont été complétés en septembre 2023 avec les 8004 (plus économiques), qui offrent jusqu’à 64 cœurs, à raison de 4 circuits CCD contenant chacun 16 cœurs actifs ou non et 32 Mo de cache, puis en mai de cette année, avec les 4004 encore plus économiques. Ceux-là sont des versions réduites des 9004, avec seulement 2 circuits CCX contenant chacun 8 cœurs actifs ou non et 32 Mo de cache. Le fait d’avoir beaucoup moins de circuits leur permet néanmoins d’afficher des fréquences record – 4,5 GHz de base, 5,7 GHz en mode « boost » - sans dépasser un TDP de 170 W, voire 120 W.

AMD avait même remis sur le marché à la fin de l’année 2023 des stocks d’anciens processeurs 7003, à base de cœurs Zen 3 gravés en 7 nm. LeMagIT en conclut que, sur ce segment de marché, le fabricant cherche en priorité à maximiser sa rentabilité. Pousser plus loin les performances de ses processeurs pour serveurs semble passer désormais au second plan.

D’autant plus que, dans les tests, les derniers Epyc ont de toute façon de l’avance sur les derniers Xeon, mais que, selon les fabricants de serveurs que nous avons interrogés, les modèles d’AMD sont plus souvent indisponibles que ceux d’Intel.

En ce qui les concerne, les Epyc « Turin » à base de cœurs Zen 5 viennent seulement d’être annoncés pour une sortie probable vers la fin de l’année. A priori, les futurs Epyc 9005 auront 16 circuits CCX contenant chacun 8 cœurs actifs ou non et 32 Mo de cache, soit un maximum de 128 cœurs avec 512 Mo de cache. Il existerait aussi une version dérivée de l’architecture des 8004, avec 12 circuits CCD contenant chacun 16 cœurs actifs ou non et 32 Mo de cache, soit un maximum de 192 cœurs et 384 Mo de cache.

Selon les premières informations connues, ces Epyc de cinquième génération ne semblent pas incarner de bond technologique particulier par rapport à ceux de la génération actuelle. Si la finesse de gravure meilleure rend physiquement possible l’assemblage d’un plus grand nombre de circuits CCX ou CCD dans la même puce, elle ne présenterait en revanche plus l’avantage de réduire la consommation électrique. Ainsi, le TDP des Epyc 9005 grimperait à présent jusqu’à 500 W sans que la fréquence augmente ; celui des 9004 atteignait au maximum 400 W.

AMD : des ambitions discutables sur les nouveaux Ryzen

AMD réserve pour l’heure ses cœurs Zen 5 (16 % plus rapides que les Zen 4) à ses processeurs Ryzen pour PC. Deux séries sont lancées ces jours-ci : les Ryzen AI 300 et les Ryzen 9000. Les Ryzen 9000 ont un ou deux circuits CCX contenant chacun 8 cœurs actifs ou non et 32 Mo de cache plus 1 Mo par cœur actif. Soit au maximum 16 cœurs avec 80 Mo de cache. Les Ryzen AI 300 ont 1 circuit CCD contenant 12 cœurs actifs ou non et 24 Mo de cache plus 1 Mo par cœur actif (soit un maximum de 36 Mo).

Censés concurrencer eux aussi les SnapDragon X sur les PC portables dits CoPilot+, les Ryzen AI 300 intègrent bien des cœurs XDNA 2 dédiés à l’accélération des algorithmes d’inférence, les fameux NPU. En revanche, ces puces n’intègrent pas la mémoire DRAM de l’ordinateur hôte, présente sous forme de LPDDR5 chez la concurrence. De fait, il est probable que les Ryzen AI 300 obtiennent des résultats mitigés dans les prochains tests de performance.

Pour approfondir sur Processeurs et composants

Close