Mahi - stock.adobe.com

NIM Agent Blueprints : les plans de Nvidia pour accélérer le déploiement de la GenAI

Après avoir présenté ses microservices NIM, Nvidia propose désormais de les mettre en musique en constituant des agents consacrés au service client, à la recherche médicamenteuse ou à la production de résumés de documents. Une brique de plus pour étayer son segment logiciel.

NIM Agent Blueprints est un catalogue de flux de travail incluant des IA préentraînées et personnalisables que les développeurs peuvent utiliser pour créer et déployer des applications d’IA générative.

Les trois premiers NIM Agent Blueprints présentés sont les « humains numériques » (ou avatars pour le service à la clientèle), l’extraction multimodale de données PDF pour les systèmes RAG (Retrieval Augmented Generation), et le criblage virtuel génératif pour la découverte de médicaments.

Les « Blueprints » comprennent des exemples d’applications construites avec plusieurs microservices Nvidia NIM et ceux de partenaires.

Dans le cas présent, les avatars « intelligents » impliquent un pipeline à trois branches, synchronisant le traitement des fichiers audio par un modèle spécifique (Parakeet-ctc-1_1B-ASR), la retranscription d’une question posée à un système RAG (propulsé entre autres par Milvus, nv-embedqa-e5-v5 et nv-rerankqa-mistral4b-v3) et l’énonciation de la réponse par un avatar 3D rendu à l’aide des microservices Nvidia Tokkio et Audio2face (pour la synchronisation labiale).

Le schéma consacré au système RAG est le même que celui utilisé dans la conception de l’avatar, tandis que l’application de criblage virtuel combine Alphafold2 de Google DeepMind (prédiction de la structure 3D d’une protéine à partir d’une séquence d’amino-acide), Molmill Generate (prédiction de molécules et de leurs propriétés) et Diffdock (prédiction d’une structure 3D représentant la manière dont une molécule interagit avec une protéine).

Pratiquement tous les composants présentés dans les templates disposent déjà d’un microservice NIM.

Accélérer le déploiement de systèmes d’IA générative

Avec ce type de solutions, Nvidia prétend répondre aux besoins des entreprises qui luttent à passer de l’idéation à la mise en œuvre de projet d’IA générative.

« Il s’agit de créer des composants modulaires et enfichables sur lesquels les entreprises peuvent s’appuyer », comprend Chirag Dekate, analyste chez Gartner.

Alors que Nvidia aurait pu choisir de donner aux développeurs des outils d’IA pour créer leurs applications, avec les NIM Agent Blueprints, l’équipementier fournit aux entreprises des modèles préentraînés qui leur permettent d’aller plus vite dans la création de produits et de services d’IA générative, renchérit Olivier Blanchard, analyste chez Futurum Group.

En effet, deux des trois schémas sont particulièrement complexes à mettre sur pied sans ce type de services, mais LeMagIT comprend qu’il faut toutefois mettre la main à la pâte pour obtenir une solution de bout en bout.

De son côté, Olivier Blanchard estime que l’offre de Nvidia peut être efficiente économiquement, mais n’est pas forcément la bonne réponse pour toutes les entreprises.

« Pour des entreprises qui développent des processus très particuliers, le modèle NIM n’est peut-être pas le bon », déclare-t-il. « Elles pourraient vouloir commencer avec d’autres solutions, puis utiliser [les NIM] pour bâtir des couches supplémentaires de fonctionnalités au-dessus des solutions existantes ».

Pour Rob Enderle, analyste chez Enderle Group, Nvidia a bien pour objectif de bâtir des solutions de bout en bout. « Au départ, l’IA générative était une technologie. Ce qu’essaye Nvidia, c’est d’en faire une solution complète », assure-t-il.

Mais l’équipementier est loin d’être le seul sur ce créneau, indique l’analyste.

En particulier, son concurrent AMD est en train de s’armer pour répondre au même défi. Après Pensando, Nod.ai, Mipsology et Silo AI, le concepteur de semiconducteurs a annoncé l’acquisition de ZD Systems le 20 août dernier.

Google, AWS, Microsoft ont également mis sur pied des offres et des outils pour simplifier le déploiement de systèmes GenAI.

Qu’à cela ne tienne, Nvidia s’accroche à sa stratégie mêlant GPUs et logiciels.

« Cela fait partie du plan stratégique que Nvidia met en œuvre pour créer une alternative verticalement intégrée, quel que soit l’endroit où les clients construisent leurs solutions à grande échelle », rappelle Chirag Dekate. « En activant ces blocs de construction, comme les NIM Blueprints, Nvidia intègre essentiellement des architectures modulaires de plus haut niveau qui s’appuient sur la pile Nvidia, quel que soit l’endroit où elles sont exécutées ».

Nvidia avait déjà présenté des microservices NIM consacrés à la norme OpenUSD, une technologie utilisée dans la conception de jumeaux numériques.

En clair, Nvidia cherche principalement à s’assurer que ses clients achètent des puces et que les clients de ses clients consomment des ressources GPU.

L’équipementier précise d’ailleurs que les microservices NIM s’exécutent aussi bien sur les serveurs certifiés de Dell, Cisco, HPE, Lenovo et autres que depuis les instances GPU d’AWS, GCP, Azure et OCI.

Si les fournisseurs cloud ne sont pas forcément adeptes des kits de développement tiers (même s’ils ne peuvent se passer du framework CUDA), certaines entreprises, des développeurs, et surtout, des éditeurs, peuvent s’appuyer sur ce genre de Blueprints pour intégrer des fonctionnalités dans leur plateforme. C’est typiquement l’objet du partenariat entre Nvidia et ServiceNow. Accenture est également en train de bâtir des solutions à partir des Agent Blueprints.

Une stratégie logicielle qui prend corps

Pour l’instant, la firme dirigée par Jensen Huang tient son pari. Dans le communiqué accompagnant les résultats du deuxième trimestre fiscal 2025, Nvidia précise que plus de 150 entreprises et partenaires ont déployé des microservices NIM, dont Aramco, Lowes et Uber. Selon Colette M. Kress, directrice financière de Nvidia, AT&T aurait économisé 70 % des coûts de transcription et de classification des appels à son service client grâce aux NIM.

En toute logique, Nvidia poursuit dans cette voie, par exemple en rendant disponibles des outils pour déployer des systèmes RAG sur des stations de travail (Nvidia RTX AI Toolkit), en combinant NeMo Curator et Nemotron -4 340B pour générer des données synthétiques, et en proposant une librairie CUDA (cuVS) pour accélérer l’indexation de données vectorielles, ou même encore en lançant une version de Mistral NeMo dotée de 8 milliards de paramètres.

« Nous prévoyons que notre chiffre d’affaires annuel dans le domaine des logiciels, du SaaS et du support approchera les 2 milliards de dollars à la fin de cette année, NVIDIA AI Enterprise contribuant particulièrement à cette croissance », indique Colette M. Kress auprès des analystes financiers. Une flaque dans un océan de billets verts.

On se souvient que Nvidia a réalisé un chiffre d’affaires de 60,9 milliards de dollars pour l’année fiscale 2024, en hausse de 126 %.

Au deuxième trimestre fiscal 2025, il a généré un CA de 30,04 milliards de dollars, en hausse de 15 % en comparaison du précédent trimestre et de 122 % par rapport au Q2 2024.

La bulle « GenAI » perd sans doute de son ampleur, mais Nvidia bat des records de ventes auprès des fournisseurs de cloud, avec plus de 26 milliards de dollars attribués à son segment data center. Les puces Blackwell sont clairement le vecteur de croissance principal du géant fabless.

Notons que le concepteur avait terminé ses années fiscales 2023 et 2022 avec un chiffre d’affaires de 26,97 et 26,91 milliards de dollars.

Pour approfondir sur IA appliquée, GenAI, IA infusée

Close