sdecoret - stock.adobe.com

IA générative : AWS répond à Azure et OpenAI avec Amazon Bedrock

AWS a annoncé plusieurs mesures pour encourager les entreprises à entraîner, affiner et inférer des modèles d’IA générative sur ses infrastructures. Le géant du cloud se devait de réagir face à la popularité du duo Microsoft – OpenAI.

Avec SageMaker, AWS a su se faire un nom auprès des équipes de data science. Le fournisseur a également un ensemble de services spécialisés, à l’instar de Kendra (moteur de recherche cognitif), de la gamme Amazon Lookout (détection d’anomalies), d’Amazon Rekognition (computer vision) ou encore de Lex (chatbot/voicebot). Sur son site Web, le fournisseur affiche 36 produits différents consacrés au machine learning.

Parmi ceux-ci, Amazon Bedrock est le petit nouveau. Disponible en préversion limitée avant une sortie prévue au deuxième semestre de cette année, Bedrock couvre un champ particulièrement tendance : l’IA générative.

« Nous sommes considérés comme le fournisseur de cloud ayant plus grand nombre de clients et de références en matière d’IA et de ML », surenchérit Vasanth « Vasi » Philomin, vice-président et directeur général Machine Learning & IA chez AWS. « Nous voulons maintenant adopter la même approche de démocratisation de l’IA générative ».

Il faut dire qu’OpenAI et Microsoft ont grandement tiré la couverture vers eux. Le concurrent se devait de réagir. Comme à son habitude, AWS entend se différencier.

Là où Microsoft sert le modèle GPT-3.5/4 et ses variantes à toutes les sauces dans son offre Azure OpenAI, AWS est persuadé, à l’instar de Databricks, qu’un « seul modèle ne peut régner ».

Bedrock, une alternative à Azure OpenAI

Avec Bedrock, l’approche d’AWS est d’offrir des modèles de fondations accessibles via API afin de les affiner ou de les inférer suivant différents cas d’usage.

« Les différents modèles ont des performances différentes selon les tâches à accomplir. La notion de choix est donc très importante », signale Vasi Philomin. « Vous devez disposer d’une variété de modèles de fondations, et vous pouvez ensuite déterminer ceux qui conviennent le mieux aux cas d’usage de votre entreprise ».

Ainsi, AWS s’est entouré de partenaires pour proposer une gamme de modèles NLG disponibles via API. Ainsi, AI21 Labs proposera sa collection de modèles Jurrasic-2 (cinq variantes), présentée en mars dernier. Le laboratoire ne souhaite pas dévoiler le nombre de paramètres utilisés, mais l’on sait que la plus grosse variante de Jurrasic-1 embarque 178 milliards de paramètres. La startup précise toutefois que ces modèles de suivi d’instructions peuvent réaliser des résumés, générer des articles et des mails, répondre à des questions à partir d’une base de connaissances en anglais, français, allemand, portugais, italien et en néerlandais. Le laboratoire fournira une API par fonction. Selon la startup, son API consacré au résumé serait 19 % plus fidèle aux contenus en entrée que davinci-003 d’OpenAI.

Anthropic fournira Claude et sa variante Claude Instant. Claude fournit des capacités similaires à Jurrasic-2, mais Anthropic a mis l’accent sur une technique d’apprentissage par renforcement supervisé par des humains et une IA visant à imposer un cadre éthique au modèle afin qu’il soit « utile, honnête et inoffensif ».

Pour sa part, AWS prépare la collection de modèles Amazon Titan. Pour l’instant, deux variantes sont prévues. Titan Text répond aux mêmes cas d’usage de base que Claude et Jurrasic-2. Titan Embeddings, lui, vise à produire des représentations mathématiques de textes en entrée d’un modèle qui « contiennent la sémantique d’un texte ». Plus précisément, il s’agit de représenter des mots par des vecteurs de nombres réels afin d’analyser la réponse la plus intéressante à une requête. « C’est très utile dans les applications comme les moteurs de recherche. Amazon utilise une méthode similaire », explique Vasi Philomin.

Enfin, AWS dispose d’un partenariat avec Stability AI, l’un des créateurs du célèbre modèle de diffusion Stable Diffusion. Ici, il s’agit de générer des images, des designs ou encore des logos à partir d’une commande en langage naturel.

« Tous les modèles seront disponibles dans différentes tailles suivant la précision de la tâche à effectuer et le budget alloué », promet Vasi Philomin.

« Par ailleurs, une taille plus importante ne signifie pas qu’un modèle est plus précis. Nous avons déjà démontré qu’un modèle doté 20 milliards de paramètres est plus performant qu’un modèle de 275 milliards de paramètres pour certaines tâches », ajoute-t-il. 

Des modèles propriétaires légèrement personnalisables

Malgré l’approche d’Anthropic et l’assurance que le fournisseur fera en sorte de respecter une approche responsable de l’IA, seuls certains modèles de Stability.ai sont sous licence open source.

AWS assure qu’il ne se servira pas des données utilisées par les clients pour affiner ses modèles et ses partenaires semblent s’engager à faire de même. « Aucune des données du client n’est utilisée pour former les modèles sous-jacents, et comme toutes les données sont chiffrées et ne quittent pas le VPC du client, celui-ci peut être certain que ses données resteront privées et confidentielles », écrit Swami Sivasubramanian, vice-président Data & Machine Learning chez AWS, dans un billet de blog.

Même si la plupart des modèles sont propriétaires, les utilisateurs devraient pouvoir personnaliser l’entraînement suivant leurs besoins. Selon AWS, peu d’exemples seront nécessaires pour obtenir des résultats satisfaisants sur une tâche spécifique.

Dans cette volonté d’abstraire la complexité sous-jacente de ces technologies, le fournisseur présente Bedrock comme un service managé et entièrement serverless. Il pourra être intégré avec SageMaker afin d’infuser les modèles dans des pipelines plus avancés.

Du même coup, AWS ne précise pas quelles instances propulseront ce service.

« Les clients ne veulent pas se soucier de l’infrastructure sous-jacente. Ils souhaitent appeler un modèle par API à l’entraînement ou à l’inférence », affirme Vasi Philomin. « En coulisse, nous exploitons le hardware de notre choix et nous adaptons automatiquement la disponibilité de l’infrastructure à la charge de travail ».

Pour l’instant, point de documentation et de grilles tarifaires. Néanmoins, Vasi Philomin reconnaît que le tarif sera déterminant dans la popularité de Bedrock.

Dans un même temps, AWS annonce la disponibilité générale des instances EC2 Trn1n et Inf2. Celles-ci sont respectivement propulsées par les accélérateurs Trainium et Inferentia2, tous deux bâtis à l’aide de cœurs NeuroncoreV2. Les instances Trn1n doivent offrir une bande passante deux fois supérieure aux instances Trn1 grâce à la topologie réseau EFA et des performances en hausse 20 %. Les instances Inf2 offriraient des performances de calcul trois fois supérieures aux instances Inf1. Bien évidemment, AWS a concentré ses benchmarks sur l’entraînement et l’inférence de modèles de langage. Les instances Inf1 ont déjà été mis à contribution pour des cas d’usage de computer vision.

« Les instances Inf2 vont permettre d’améliorer d’au moins 40 % le rapport performance/prix en comparaison à toutes les instances EC2 similaires actuellement disponibles », assure Vasi Philomin.

Toutefois, l’inférence de Stable-Diffusion devrait s’exécuter sur des instances EC2 G4 ou G5, propulsées par des GPU Nvidia. C’est avec cette architecture en tête que le modèle a été pensé.

Des premiers pas

Selon AWS, Bedrock intéresse d’abord les cabinets Accenture, Deloitte, Infosys ainsi que les éditeurs C3 AI et Pegasystems.

Mais le fournisseur souhaite également rassembler les startups autour de sa vision. Au cours de l’AWS Summit parisien ayant eu lieu le 4 avril, il a annoncé le lancement d’un nouvel accélérateur ouvert aux jeunes sociétés œuvrant dans le domaine de l’IA générative (hormis dans quelques pays sensibles, dont la Corée du Nord, la Chine, Cuba, la Russie, l’Iran et la Syrie). Les dix lauréats bénéficieront d’un accompagnement technique et organisationnel de dix semaines et jusqu’à 300 000 dollars de crédits cloud pour déployer leur projet.

Enfin, AWS officialise la disponibilité générale de CodeWhisperer, un outil d’assistance à la programmation propulsée à l’IA. À son annonce, il se différenciait par la possibilité d’indiquer la source ou l’inspiration du code généré, mais depuis, GitHub a rattrapé son retard avec Copilot et fournit une fonctionnalité similaire. 

Ce ne sont que de premiers pas, avoue Vasi Philomin.

« Je pense que nous ne sommes qu’au tout début. Il est important de continuer d’innover sur tous les aspects et dans tous les domaines. Il y a encore des problèmes scientifiques à résoudre », conclut-il.

Pour approfondir sur Intelligence Artificielle et Data Science