Le marché des puces pour l’IA sera multiplié par 10 d’ici à 2033

Un cabinet d’analystes estime que le marché mondial des puces accélératrices pour l’IA atteindra 300 milliards de dollars en 2033, contre 30 aujourd’hui. Simultanément, Apple annonce se lancer dans cette activité.

Une ruée vers l’or. Selon le Wall Street Journal, Apple serait en train de développer, lui aussi, une puce accélératrice pour entraîner en un minimum de temps des modèles d’intelligence artificielle dans les datacenters. Si le constructeur à la pomme est bien connu pour mettre au point lui-même les puces ARM de ses iPhone, iPad et Mac, son retour dans les data centers a de quoi surprendre quand on sait qu’il a abandonné toute velléité de travailler sur les serveurs en avril 2022, après l’arrêt de son système macOS Server.

Mais divers observateurs émettent l’hypothèse qu’Apple aurait lui aussi envie de croquer dans ce qui s’annonce comme la plus belle opportunité commerciale de ces six prochaines années : la course au développement de puces accélératrices dédiées à l’IA. Chez Nvidia, l’actuel leader de ce marché, une telle puce, appelée GPU, se vend à l’unité pour environ 40 000 dollars, soit entre 6 et 20 fois plus cher qu’un processeur performant.

L’enjeu économique autour de ces puces est d’autant plus important que les USA sont volontaires pour investir des dizaines de milliards de dollars pour développer sur leur sol une industrie de pointe avant que les Chinois y parviennent. Et l’Union européenne compte faire de même pour ne pas dépendre des USA sur un marché aussi critique.

Outre des chatbots capables de générer des contenus analytiques ou créatifs, qui pourraient enrichir rapidement le commerce de services, l’IA promet en effet de rendre plus efficaces les industriels et les armées. Dans ce contexte, la course au développement des puces les plus efficaces pour les traitements d’IA serait moins un défi technologique qu’une véritable stratégie de géopolitique. Certains n’hésitant pas à parler de guerre froide de l’IA.

Explosion des demandes pour les GPUs et les mémoires HBM

Selon une étude du cabinet AltIndex, le marché des semiconducteurs pour l’IA devrait être multiplié par dix d’ici à dix ans, soit un revenu global annuel de 300 milliards de dollars en 2033, contre 30 milliards d’ici à la fin de cette année. AltIndex relève que les 30 milliards de dollars qui seront générés en 2024 par la vente de puces dédiées à l’IA représenteront déjà une augmentation de 7 milliards de dollars par rapport à 2023. La taille du marché devrait doubler en 2027, avec un prévisionnel à 67 milliards de dollars.

Parmi 23 mds $ générés par la vente de puces dédiées à l’IA en 2023, 13,5 mds $ de revenus ont été encaissés par l’Américain Nvidia. Ce constructeur ayant eu l’année dernière une situation de quasi-monopole sur la fabrication de GPU – principalement ses modèles H100 et L40S, ainsi que les modèles précédents A100 et L4 –, les 9,5 milliards restants sont surtout réalisés par ses fournisseurs. En l’occurrence les Coréens Samsung et SK Hynix qui fabriquent les mémoires HBM essentielles à l’efficacité de ses GPU.

En version HBM3, ces mémoires fournissent des débits en lecture/écriture de 819 Go/s et coûtent, au Go, cinq fois plus cher que les dernières mémoires DDR5 conçues pour accompagner les processeurs des serveurs.

On ignore exactement quelle part les mémoires HBM représentent dans les revenus de la filiale de Samsung dédiée aux semiconducteurs. On note cependant que cette dernière lui a rapporté lors du premier trimestre 2024 1,38 milliard de dollars de bénéfices, alors qu’elle n’avait pas été profitable depuis le dernier trimestre de l’année 2022. Et c’est bien sur le seul sujet des mémoires HBM que Samsung a donné un agenda clair, lors de la présentation de ses derniers résultats financiers : la production en masse des mémoires HBM3e en huit couches (24 Go par circuit) débute ce mois et celle des modèles en 12 couches (36 Go par circuit) sera lancée avant cet été.

Cela dit, Samsung n’est que le numéro 2 de la mémoire HBM, derrière SK Hynix. On ne sait guère plus combien elles pèsent dans les revenus de son activité de fabrication de mémoires, mais SK Hynix indique que ses bénéfices concernant « les puces mémoires pour l’IA, principalement de type HBM » auraient été multipliés par 7,34 rien que sur le dernier trimestre.

AMD, Intel et Apple misent aussi sur la mémoire HBM

Selon les renseignements que LeMagIT a pu obtenir, Nvidia devrait commander cette année pour environ 7,3 milliards de dollars de mémoires HBM3, principalement des HBM3e 12 couches pour mettre dans ses prochaines puces B100 et B200.

Samsung et SK Hynix vendent aussi ces mémoires à Intel et AMD. Ceux-ci ont fermement l’intention de compter parmi les fournisseurs de GPUs pour l’IA, respectivement avec leurs puces Gaudi3 et MI300. On sait déjà qu’AMD entend lancer d’ici à la fin de l’année des versions MI350 et MI375 améliorées.

On ne sait pas encore quels sont les plans d’Apple concernant son futur GPU, baptisé pour l’heure ACDC (Apple Chips in Data Center). Le constructeur argumente que ses Mac seraient, selon des tests internes, les plus performants des ordinateurs personnels pour exécuter des traitements d’inférence localement (notamment via un outil tel que Ollama qui permet de télécharger gratuitement des modèles d’IA sur la machine).

Des chiffres sont avancés : un traitement effectué en 6 heures sur un PC équipé d’une carte graphique Titan X haut de gamme de Nvidia s’exécuterait en à peine 50 minutes sur un Mac doté du dernier processeur M3. Ce comparatif est censé donner une idée de l’échelle de performances qu’atteindrait un processeur Apple Silicon pour serveurs par rapport à un GPU H100 ou B200 de Nvidia.

La vitesse des Mac serait notamment due à la capacité du GPU intégré au processeur d’accéder à l’intégralité de la RAM de la machine. De fait, celle-ci est aujourd'hui incarnée par un circuit LPDDR5 installé au centre du processeur. La mémoire LPDDR5 est moins chère, moins rapide que la mémoire HBM. L'ambition que nourrit Apple à propos d'une puce pour datacenter pourrait reposer sur une déclinaison de ses processeurs Silicon Mx avec de la mémoire HBM à la place du circuit LPDDR5.

Nvidia planche sur un modèle, la carte GB200, qui doit aussi mieux partager sa mémoire entre deux GPU et Grace, son processeur ARM. AMD a pour sa part déjà dévoilé une déclinaison de son GPU MI300X, la puce MI300A, qui intégrerait comme Apple le GPU et le processeur sur le même circuit, autour d’une mémoire HBM commune.

TSMC, la cheville industrielle de toutes les puces d’IA

Les résultats financiers relevés par les cabinets d’étude de marché ne prennent pas en compte les activités d’un acteur essentiel dans cet écosystème : le Taiwanais TSMC dont les usines produisent plus de la moitié des semiconducteurs de la planète. C’est lui qui fabrique les circuits des GPUs de Nvidia, des processeurs d’AMD et d’Apple, et même ceux des GPUs d’Intel. En attendant que ce dernier parvienne à rattraper son retard industriel.

Ce qui n’est pas encore gagné : TSMC vient de dévoiler un processus industriel « A16 Super Power Rail » qui doit lui permettre de fabriquer des circuits avec une précision de 1,6 nanomètre d’ici à la fin de l’année 2026, comparativement à 3 nm actuellement. Intel, dont les usines gravent encore les processeurs Xeon avec une précision de 10 nm, accuse un retard de deux à trois générations.

La finesse de gravure permet de densifier la puissance de calcul en évitant de démultiplier la production de chaleur. Cette chaleur est à l’heure actuelle un problème pour les data centers qui veulent héberger des traitements d’IA.

Toujours est-il que la course au développement de puces accélératrices pour l’IA pourrait bien se solder par une course pour arriver premier sur les chaînes industrielles du seul TSMC.

Un enjeu géopolitique

Sur le plan géopolitique, les USA ont provisionné une enveloppe globale de 39 milliards de dollars au travers du programme gouvernemental Chips and Science Act. Outre soutenir les acteurs locaux, ces fonds doivent servir à faire venir sur le territoire nord-américain les usines des géants asiatiques du semiconducteur. 

SK Hynix a récemment annoncé la sortie de terre de deux usines consacrées aux mémoires HBM dans l’Indiana d’ici à 2028. TSMC construit pour sa part trois usines depuis 2021 en Arizona. La première devait entrer en service cette année, mais son ouverture a été repoussée d’au moins un an. Les deux autres devraient ouvrir leurs portes en 2028. Samsung, enfin, vient de signer l’installation de deux usines au Texas, pour une mise en service qui devrait avoir lieu avant la fin de la décennie.

À date, le gouvernement états-unien doit attribuer 8,6 milliards de dollars à Intel, 6,1 mds $ au fabricant de mémoire américain Micron, 6,6 mds $ à TSMC, 6,4 mds $ à Samsung et une somme non encore convenue à SK Hynix. Ces fonds demeurent une part mineure des 200 milliards d’euros que devrait coûter, au total, la construction de ces usines.

L’Union européenne a mimé le plan américain avec un programme Chips Act qui comprend une enveloppe de 43 milliards d’euros d’argent public à investir d’ici à 2030. Ces fonds doivent notamment alimenter l’installation, en Allemagne, des usines d’Intel (à Magdeburg) et de TSMC (à Dresde). Ils doivent aussi servir à moderniser les usines de l’américain GlobalFoundries et du franco-italien STMicroelectronics, implantées de longue date sur le continent.

Pour autant, des observateurs font remarquer que les dossiers n’avancent guère et que les fonds sont pour l’instant plus volontiers accordés à des centres de recherche, notamment ceux dédiés aux puces optiques.

Intel a annoncé son intention d’investir 30 milliards d’euros dans son usine allemande, tandis que TSMC a, ici, préféré s’associer avec les acteurs européens Infineon (allemand), NXP (hollandais) et même l’équipementier automobile Bosch (allemand) pour investir ensemble 10 milliards d’euros dans une usine commune.

En théorie, la Chine ne peut travailler avec aucun de ces industriels, du fait de plusieurs vetos américains sur les marchandises exportées par les entreprises qui travaillent avec les USA. SMIC, l’industriel chinois qui s’occupe de la gravure des semiconducteurs pour quelques géants nationaux (principalement Huawei, dont la filiale HiSilicon planche sur des GPUs), ne peut normalement même pas avoir accès aux équipements optiques du Hollandais ASML. Ce sont ceux-ci qu’Intel, TSMC, Samsung et SK Hynix utilisent dans leurs usines pour graver les circuits semi-conducteurs.

Pour autant, SMIC vient de faire la preuve qu’il était capable de graver des circuits avec une précision de 7 nm. Personne ne sait comment. Mais jusqu’à la fin de l’année 2023, la plupart des circuits gravés en Corée du Sud ou à Taiwan partaient de toute façon pour la Chine pour être assemblés sous la forme d’une puce. Y compris les semiconducteurs de Nvidia, d’AMD et d’Apple.

Pour approfondir sur Processeurs et composants