Ignite 2023 : Microsoft élargit sa gamme d’outils d’IA générative
Microsoft a pris mercredi des mesures importantes pour élargir son écosystème d’IA avec une foule de nouvelles capacités d’IA et des mises à jour de sa gamme de produits Azure AI.
Ces annonces ont été effectuées lors de Microsoft Ignite 2023. La conférence, qui se tient cette semaine à Seattle, se concentre sur les offres SaaS et Cloud du groupe.
Les nouvelles mises à jour et capacités font partie de la campagne concertée de Microsoft pour soutenir l’utilisation et le développement de systèmes d’IA générative. Le groupe entend conserver la tête dans la course à l’IA en partenariat avec ses filiales et d’autres entreprises. Peu avant Ignite, Satya Nadella, PDG de Microsoft, a effectué de petites interventions remarquées lors des événements d’OpenAI et de GitHub.
Justement, la série de lancements de produits d’IA est le fruit de la relation exclusive du fournisseur cloud avec le spécialiste des LLM OpenAI. Microsoft a récemment investi 13 milliards de dollars dans la startup.
Azure AI Studio : une suite logique pour Microsoft
Lors d’Ignite, une annonce semble plus importante que les autres : celle du lancement d’Azure AI Studio, désormais disponible en avant-première.
Il s’agit d’une plateforme « unique » pour construire, tester, explorer et déployer des systèmes d’IA à l’aide d’outils et de modèles d’apprentissage automatique.
Avec ce « Hub », les développeurs doivent pouvoir créer de nouvelles applications d’IA générative, y compris des applications avec Copilot, l’assistant de Microsoft, en utilisant des outils et des modèles personnalisables.
Les utilisateurs accèdent à des sources de données telles que Microsoft Fabric, OneLake et Azure AI Search. Ils peuvent sélectionner des modèles à partir d’un catalogue de modèles open source (Llama 2-7B, Falcon-40B, dolly-v2-12b, etc.), évaluer les réponses des modèles, identifier les opportunités d’affinage (fine-tuning) et passer de la preuve de concept à la production, selon Microsoft.
Le nouveau studio d’IA est une progression logique pour Microsoft, selon Mark Beccue, analyste chez Futurum Group. « Cela leur permet de jouer un rôle potentiellement puissant, étant donné tout ce qu’ils ont appris en matière de gestion des modèles d’IA », déclare-t-il.
Si AI Studio est comparable à d’autres plateformes, tels que Gen App Builder de Google, l’expérience de Microsoft en matière de gestion des modèles OpenAI lui confère un atout de taille, précise l’analyste.
En outre, Microsoft a également testé Copilot avec des clients en avant-première. Les capacités de Copilot dans Azure AI Studio sont similaires à ce que le groupe fait déjà dans ses autres applications. Le développeur peut émettre un prompt en anglais tout en écrivant un morceau de code plus important, relate Sid Nag, analyste chez Gartner Research.
« Il s’agit d’une fonctionnalité supplémentaire pour aider les développeurs à écrire des logiciels sans avoir à écrire beaucoup de code », résume-t-il.
Nouvelles capacités multimodales
En sus d’AI Studio, Microsoft a présenté les capacités d’IA multimodale désormais disponibles dans Azure OpenAI Service. La nouvelle plateforme permet aux organisations de construire des systèmes d’IA générative avec des images, du texte et de la vidéo.
Les nouvelles fonctionnalités comprennent l’ajout du modèle de génération d’images Dalle-3, des grands modèles de langage (LLM) GPT 3.5 Turbo, GPT-4 Turbo et des mises à jour GPT-4. Les plugins Bing Search et Advanced Data Analytics ont également été ajoutés.
« Notre promesse est simple », avance Satya Nadella, PDG de Microsoft, lors d’une présentation à Ignite mercredi. « Au fur et à mesure qu’OpenAI innove, nous fournirons toutes ces innovations dans le cadre d’Azure AI ».
Avec GPT-3.5 Turbo et GPT-4 Turbo, les utilisateurs peuvent allonger la durée de leur intervention. GPT-3.5 Turbo est disponible dès maintenant, tandis que GPT-4 Turbo et Dall-E 3 sont en avant-première, la disponibilité générale de GPT-4 Turbo étant prévue pour décembre.
L’avantage d’avoir Dall-E 3, GPT 3.5 Turbo et d’autres capacités sous Azure OpenAI Service est qu’il rassemble toutes ces différentes fonctionnalités en un seul endroit, selon Sid Nag.
« Si je suis une entreprise qui crée du contenu, je n’ai pas envie d’aller chercher tous ces modèles à différents endroits », assure -t-il.
Parmi les autres mises à jour d’Azure OpenAI Service, citons une nouvelle fonction « video-to-text » qui permet aux utilisateurs de générer des résumés textuels à partir d’une vidéo.
Il est aussi possible d’utiliser un LLM pour identifier, puis consulter des sujets à l’intérieur d’une vidéo.
IA responsable et copyright
Microsoft entend répondre aux préoccupations liées à l’IA responsable en élargissant l’accès au Copilot Copyright Commitment (CCC) aux clients utilisant Azure OpenAI Service.
Cette option comprend une nouvelle documentation de Microsoft destinée à aider les clients à réduire le risque de violation des droits d’auteur.
Microsoft, OpenAI et d’autres sociétés sont impliquées dans des poursuites judiciaires concernant l’IA, accusant les entreprises technologiques d’enfreindre les droits d’auteur.
Bien que Microsoft n’ait pas précisé le contenu de sa nouvelle documentation, les clients qui s’y conformeront tireront le meilleur parti de la CCC, considère Mark Beccue.
Toutefois, il précise que la tranquillité d’esprit que les clients peuvent tirer de ce type de documentation dépend du cas d’usage.
« La génération de texte peut être un problème si vous développez des textes marketing ou publicitaires », illustre-t-il. « Le problème de la génération d’images est déjà bien établi. Personnellement, je ne ferais pas confiance à une IA générique pour rédiger un texte marketing ou publicitaire ».
Les clients du service Azure OpenAI peuvent par ailleurs utiliser Azure AI Content Safety, désormais disponible de manière générale, en tant que fonctionnalité API. Ce nouveau service aide les organisations à détecter les contenus nuisibles.
Nvidia s’appuie sur Azure
Dans le même temps, grâce à un partenariat élargi avec le fabricant de puces d’IA et l’éditeur de logiciels Nvidia, la nouvelle série de machines virtuelles NCCv5 de Microsoft pour Azure comprendra des GPU NVL H100 de Nvidia. Microsoft a déclaré qu’il ajouterait le GPU Nvidia H200 Tensor Core à sa flotte Azure l’année prochaine.
De son côté, Nvidia a créé un service nommé Ai foundry pour Microsoft Azure afin que les entreprises puissent connecter leur modèle personnalisé aux services cloud Azure.
Cette fonderie est composée d’une collection de modèles de fondation d’IA de Nvidia, de Nvidia Nemo et de services de supercalculateurs Nvidia DGX Cloud. Il doit aider les entreprises à créer des modèles d’IA générative personnalisés.
Le service répond à un besoin de modèles de langage spécifiques à un domaine sur le marché de l’IA générative, a déclaré M. Nag.
Parmi les systèmes récents qui ont répondu à ce besoin, on peut citer BloombergGPT.
« L’IA générative est la transition de plateforme la plus importante de l’histoire de l’informatique », a déclaré Jensen Huang, PDG de Nvidia, lors de son apparition sur scène avec Satya Nadella à Ignite.
« Nous allons faire pour les personnes qui veulent construire leurs propres modèles de langage étendu, ce que TSMC [Taiwan Semiconductor Manufacturing Company] fait pour nous », affirme Jensen Huang en faisant référence à l’un des fabricants de semiconducteurs les plus importants au monde.
Getty Images fait partie des clients qui utilisent AI Foundry pour créer des modèles personnalisés, selon Nvidia.
Les autres annonces autour de l’IA générative
Ce n’est pas tout. Microsoft a déployé d’autres nouvelles fonctionnalités pour Azure AI. En voici quelques-unes :
- Des capacités pour aider les développeurs à résumer et à traduire le langage dans des applications. Celles-ci incluent un outil d’optimisation de résumé alimenté par des LLM, dont GPT-4 et GPT-3.5 Turbo.
- Un modèle de traduction automatique qui utilise les données des clients pour aligner les traductions sur le contexte commercial.
- Un avatar de synthèse vocale pour générer une copie réaliste d’une personne qui parle à partir du texte d’entrée et des données vidéo d’une personne réelle qui parle. Des avatars personnalisés sont disponibles en avant-première.
- Les fonctionnalités mises à jour au sein d’Azure AI Vision incluent la fonctionnalité de « liveness » et le SDK de vision pour aider à prévenir l’usurpation de la reconnaissance faciale et ajouter la « liveness » et la reconnaissance faciale aux applications mobiles.
- La recherche vectorielle et sémantique sont désormais disponibles dans Azure AI Search. La recherche vectorielle permet de répondre plus rapidement aux requêtes des utilisateurs sur les LLM. Le classement sémantique donne la priorité aux résultats de recherche les plus pertinents de Microsoft Bing.
- Azure Machine Learning inclut des mises à jour dans le catalogue de modèles. Les nouveaux modèles incluent Code Llama, Stable Diffusion et Contrastive Language-Image Pretraining d’OpenAI. Le catalogue de modèles héberge désormais la nouvelle famille de modèles de fondation Nvidia Nemotron-3 8B qui prend en charge les applications de chat et de questions-réponses des entreprises et dispose de capacités multilingues avec une maîtrise de plus de 50 langues. OneLake est désormais disponible en avant-première pour créer une transition entre Microsoft Fabric et Azure Machine Learning.
- Un service de modèle à la demande sera bientôt disponible en avant-première. Il permettra aux développeurs d’intégrer des modèles open source tels que Llama 2 de Meta et Jais de G42.