Getty Images
PC infusé à l’IA : comment AMD, Intel et Nvidia se font la course
Les principaux fondeurs ont profité du Computex 2024 pour lancer leurs stratégies agressives en matière de puces dédiées à l’intelligence artificielle et s’imposer sur le marché florissant des PC infusés à l’IA.
Les PDG d’AMD, d’Intel, de Nvidia et de Qualcomm sont tous intervenus lors de la conférence Computex qui s’est tenue à Taïwan cette semaine, afin de faire part des avancées de leurs puces respectives. Avec un objectif commun : transformer chaque appareil en un appareil infusé à l’intelligence artificielle.
Lors de la conférence, les fondeurs ont mis en avant l’idée d’une « IA omniprésente », vantant l’IA générative comme la technologie qui rendra les entreprises plus efficaces et « améliorera la vie ».
« L’IA est notre priorité numéro un, et nous sommes au début d’une période incroyablement passionnante pour l’industrie, car l’IA transforme pratiquement toutes les entreprises, améliore notre qualité de vie et remodèle chaque partie du marché informatique », a ainsi déclaré Lisa Su, PDG d’AMD, lors de son discours d’ouverture, qui a été retransmis en direct.
L’IA est également essentielle pour les résultats financiers de ces fabricants de puces. Nvidia domine le marché des puces d’IA, avec des hausses spectaculaires du cours de ses actions pour le prouver, mais les autres fabricants de puces conservent de l’espace libre sur lequel s’imposer. Le chiffre d’affaires des puces d’IA devrait atteindre 71 milliards de dollars cette année, soit une hausse de 33 % par rapport à 2023, selon une récente prévision de Gartner.
Alors que les fabricants de puces ont tous vanté les mérites de leurs processeurs incroyablement rapides et économes en énergie, capables de réaliser des traitements d’IA générative (GenAI) en local sur n’importe quel appareil, la plupart des entreprises n’auront pas besoin avant des années de matériel spécialement conçu pour la GenAI, en particulier les ordinateurs portables et les PC.
« Étant donné que les organisations ont des cycles de rafraîchissement de trois à cinq ans, il faudra probablement attendre 18 à 24 mois avant de voir une masse critique de ces produits dans le monde du travail », a déclaré Gabe Knuth, analyste chez Enterprise Strategy Group, une division de TechTarget. « À ce moment-là, je pense que nous commencerons également à voir quelles sont les utilisations du matériel doté de capacités d’IA locales, et la véritable dynamique commencera à se mettre en place pour que tous les PC soient dotés de telles capacités d’ici trois à cinq ans ».
NPU et TOPS : la clé des performances des PC IA
Lors de son intervention, Lisa Su a présenté les processeurs mobiles AMD Ryzen AI 300 Series et les processeurs AMD Ryzen 9000 Series pour les ordinateurs portables et de bureau. Elle a aussi souligné l’importance des unités de traitement neuronal (NPU) pour exécuter efficacement les traitements liés à l’IA. Cela inclut des tâches telles que la traduction en temps réel, la création de contenu et les assistants numériques personnalisés pour aider à la prise de décision, a-t-elle déclaré.
Selon Gartner, les NPU permettent aux appareils de fonctionner plus longtemps, plus silencieusement et plus froidement, car les tâches d’intelligence artificielle s’exécutent en permanence en arrière-plan.
Pavan Davuluri, vice-président de Microsoft pour les appareils Windows, a rejoint Lisa Su sur la scène du Computex afin d’expliquer l’importance des puces spécialisées avec NPU intégré pour les PC Copilot+, ses PC infusés à l’IA.
Pour lui, « l’IA locale signifie un temps de réponse plus rapide, une meilleure protection de la vie privée et des coûts moins élevés, mais cela implique d’exécuter des modèles comportant des milliards de paramètres sur du matériel PC ». Dès lors, « par rapport aux PC traditionnels d’il y a quelques années, nous parlons de performances 20 fois supérieures et d’une efficacité jusqu’à 100 fois supérieure, [nécessaire aux] traitements d’IA » et, « pour que cela soit possible, chaque PC CoPilot+ doit être équipé d’une unité NPU d’au moins 40 TOPS [trillions d’opérations par seconde] ».
Le mois dernier, Microsoft a lancé ses PC CoPilot+ avec Qualcomm comme premier fournisseur de puces.
En début de semaine à Computex, Cristiano Amon, président et CEO de Qualcomm, a planté le drapeau de l’entreprise dans l’arène des PC IA avec les puces Snapdragon X. Qualcomm affirme que les systèmes de la série Snapdragon X offrent une autonomie de plusieurs jours avec des performances IA de 45 TOPS.
« Une chose sera différente avec ce nouveau PC : contrairement au passé, votre PC Windows s’améliorera avec le temps », a-t-il avancé.
À l’instar d’AMD, Qualcomm a présenté le NPU comme la clé des performances. Les traitements liés à l’IA sont délestés du CPU et du GPU au profit du NPU, ce qui permet d’améliorer considérablement les performances et d’économiser de l’énergie.
De son côté, Pat Gelsinger, PDG d’Intel, a présenté les nouveaux processeurs Lunar Lake pour les PC Copilot+ lors du salon Computex, tout en soulignant les avantages des CPU x86 et des GPU combinés aux NPU.
« Puisqu’il a été question de cette autre puce X Elite et de sa supériorité par rapport aux [puces] x86, je tiens à mettre les choses au clair dès maintenant. Ce n’est pas vrai », a-t-il assuré lors de sa présentation, en faisant référence au Snapdragon X Elite de Qualcomm.
Pat Gelsinger a cité les gains de puissance et d’efficacité significatifs des processeurs Lunar Lake, qui équiperont plus de 80 modèles de PC CoPilot+ de 20 équipementiers, à partir du troisième trimestre. Lunar Lake embarque 48 TOPS côté NPU et jusqu’à quatre fois plus de puissance de calcul pour l’IA que la génération précédente, afin d’améliorer les traitements d’IA générative.
Avec l’introduction du propre NPU d’AMD, qui offre 50 TOPS, et celui d’Intel, qui en offre 48 contre 45 pour Qualcomm, la course à l’armement des PC d’IA progresse rapidement, estime Gabe Knuth : « la guerre du TOPS a commencé », estime-t-il.
Quant à Nvidia, le géant des puces d’IA a lancé au Computex de nouveaux PC IA construits sur sa plateforme RTX, ainsi qu’un RTX AI Toolkit, une collection d’outils et de SDK gratuits que les développeurs d’applications Windows peuvent utiliser pour personnaliser et déployer des modèles d’IA pour les applications Windows. La plateforme RTX s’adresse aux joueurs et aux créateurs de contenu.
Les PC IA n’en sont qu’à leurs débuts, mais d’ici deux à trois ans, ils représenteront 65 % à 75 % du marché des PC, et plus encore dans les entreprises, estime Jack Gold, fondateur et analyste de J Gold Associates : « je m’attends à ce qu’Intel détienne la majorité des parts de marché des entreprises, suivi par AMD, Qualcomm étant plus populaire dans l’espace des consommateurs haut de gamme et des PME, mais restant un acteur minoritaire ».
Puces d’IA, au-delà des PC
Au-delà des terminaux, Nvidia, AMD et Intel ont tous partagé leur vision de la transformation des centres de calcul.
Nvidia a lancé ses nouveaux systèmes d’architecture Blackwell, qui comprennent les CPU Grace, ainsi que le réseau et l’infrastructure Nivida que les entreprises utiliseront pour construire des « usines d’IA » et des centres de calcul afin de prendre en charge les futures percées de la GenAI.
Intel a lancé les puces Xeon 6 sous deux formes : le Performance Core (P-Core), pour les applications d’intelligence artificielle gourmandes en ressources et l’Efficient Core (E-Core), conçu pour l’efficacité énergétique dans les centres de calcul.
AMD a présenté sa technologie d’IA et d’informatique adaptative, AMD Versal AI Edge Series Gen 2, disponible dès maintenant. Elle combine FPGA (field programmable gate array) pour le prétraitement en temps réel, les moteurs d’IA alimentés par la technologie d’architecture de flux de données XDNA pour l’inférence d’IA, et les processeurs intégrés pour l’IA de pointe.
Le nouvel accélérateur de serveur AMD Instinct MI325X sera disponible au quatrième trimestre 2024. Le fournisseur de puces a également présenté en avant-première sa cinquième génération de processeurs multicœurs pour serveurs EPYC, dont le nom de code est « Turin », et dont le lancement est prévu pour le second semestre de cette année.
Avec un large choix de matériel d’IA, les décisions d’achat des services informatiques peuvent se résumer à la performance par dollar ou à la performance par watt. En effet, « la puissance extrême requise pour faire fonctionner les puces haut de gamme telles que la B200 [de Nvidia] est problématique du point de vue de la disponibilité de l’énergie et du coût », explique Jack Gold.
« Les traitements d’inférence s’exécuteront volontiers sur des CPU plus génériques avec une certaine accélération de l’IA si nécessaire. Et comme, en fin de compte, les traitements d’inférence constitueront la majeure partie du traitement de l’IA, cela donne un avantage à Intel et AMD, car Nvidia n’a pas vraiment d’offre de CPU compétitive », juge l’analyste. Pour lui, « la diversité des traitements basés sur l’IA sera la clé de l’expansion du marché des traitements d’IA au cours des deux ou trois prochaines années ».