Getty Images/iStockphoto
Mémoires pour puces IA : SK Hynix investit 57 milliards de dollars
Le fondeur sud-coréen répond à la demande croissante de mémoires pour puces IA avec un investissement massif jusqu’en 2028, alors que les fabricants de puces mémoire intensifient leur production.
Face à la demande croissante de puces IA alimentée par la popularité des modèles de langage de grande taille, la demande de mémoire informatique augmente également.
En réponse à cette demande, SK Hynix, une entreprise sud-coréenne qui fournit des puces mémoire à des fabricants de puces IA tels que Nvidia, a révélé des projets d’investissement dans ses capacités de production dédiées, à hauteur d’environ 75 milliards de dollars d’ici 2028.
Cette annonce, le 30 juin, intervient après que la Corée du Sud a déclaré le mois dernier qu’elle commencerait à accorder un soutien financier, totalisant environ 19 milliards de dollars, aux fabricants de puces éligibles.
SK Hynix prévoit d’investir environ 80 % des 75 milliards de dollars dans des puces mémoire à haute bande passante (HBM).
Les puces mémoire à haute bande passante consomment moins d’énergie que les autres, tout en présentant une densité et des performances bien plus élevées. Les puces embarquant de la mémoire HBM coûtent dix fois plus chères que les processeurs conventionnels qui n’intègrent que de la mémoire cache, mais l’économie d’échelle fait qu’un cluster de serveurs équipés de telles puces coûte finalement moins cher.
Une demande de puces mémoire
D’autres fournisseurs de puces mémoire, tels que Micron et Samsung, ont (comme SK Hynix) épuisé leurs stocks de puces pour 2024 et 2025.
Le résultat est une forte demande de mémoire pour les puces IA, surtout à mesure que cette technologie est de plus en plus intégrée dans divers domaines tels que les appareils mobiles et les centres de contact.
« En gros, il va y avoir cette croissance continue et cette demande pour cela, » a déclaré Dan Newman, analyste du Futurum Group. « Vous voyez cette demande massive pour les puces IA. »
Bien que des géants technologiques tels que Google, Meta et Microsoft achètent des milliers de GPU auprès de Nvidia, il y a toujours un besoin de mémoire suffisante dans les systèmes IA, ajoute Dan Newman. « Tout le monde parle de la possibilité d’obtenir suffisamment de puces Nvidia, mais il faut aussi pouvoir accéder à suffisamment de mémoire, » souligne-t-il. « Si nous voulons continuer à entraîner des modèles plus grands et à offrir l’IA dans un plus grand nombre de nos applications, nous devons avoir l’accès nécessaire à la mémoire et au calcul pour cela ».
Ce besoin presque insatiable d’accès au calcul et à la mémoire est ce qui pousse SK Hynix et ses concurrents tels que Samsung et Micron à chercher à augmenter la production de leurs mémoires pour puces IA.
Production renouvelée
Par exemple, Micron construit des lignes de test et de production de masse de HBM dans l’Idaho. Micron a également révélé avoir reçu 6,1 milliards de dollars de la loi américaine sur les puces et la science.
Samsung a également décidé de commencer la construction d’une nouvelle usine de semi-conducteurs, après des retards.
« Il y a une guerre pour les puces mémoire parce qu’en fin de compte, vous en avez besoin pour l’IA, » a déclaré R « Ray » Wang, fondateur de Constellation Research. « Si vous vendez plus d’IA, vous avez besoin de plus de HBM. »
En fin de compte, l’intérêt pour les puces mémoire montre que le développement rapide de la technologie d’IA générative profite non seulement aux fondeurs tels que Nvidia, Intel et AMD, mais aussi à ceux qui fournissent la puissance de calcul et la mémoire vive pour les centres de calcul.
« C’est une opportunité en plein essor, » estime Dan Newman. « En ce moment, la mémoire est l’un des cycles les plus florissants de toutes les puces. »