IA générative : AWS affûte ses services pour convaincre les entreprises

Le fournisseur de cloud a présenté des fonctionnalités qui aident les entreprises à créer des applications plus rapidement, tout en appliquant des pratiques de gouvernance afin de mieux contrôler les modèles d’IA générative.

Lors d’une présentation au sommet annuel AWS Cloud Summit de New York, le géant du cloud a d’abord dévoilé AWS App Studio, un nouveau service qui utilise le langage naturel pour créer des applications d’entreprise.

App Studio : AWS mêle IA générative et low-code/no-code

Les clients qui utilisent le studio décrivent simplement le type d’application qu’ils souhaitent créer et les sources de données qui doivent être intégrées, et en quelques minutes App Studio les crée, selon AWS.

Bien qu’App Studio semble être un simple outil low-code, il se distingue des autres plateformes par le fait qu’il utilise d’abord l’IA générative pour construire l’application, distingue Jason Andersen, analyste chez Moor Insights and Strategy. La plupart des autres plateformes « low-code » font l’inverse : elles construisent l’application et intègrent ensuite l’IA, ajoute-t-il.

Dans sa documentation, AWS précise qu’AWS App Studio s’adresse en premier lieu aux responsables de projets, aux data scientists, aux data analysts et autres architectes qui n’auraient pas de compétences de programmation.

Selon Tim Crawford, analyste à l’AVOA, App Studio aide ces développeurs citoyens (citizen developer) en supprimant l’obstacle de l’accès aux outils sophistiqués réservé aux seuls programmeurs.

« Pour une entreprise, c’est important de ne pas réserver les accès aux outils de développement aux seuls professionnels », affirme Tim Crawford. « App Studio abaisse cet obstacle ».

Amazon Q s’enrichit

Ensuite, AWS a présenté de nouvelles capacités de personnalisation et de création d’applications pour la gamme d’assistants propulsées à l’IA générative, Amazon Q.

Celles-ci débarquent après qu’AWS a lancé les assistants GenAI en avril et alors que la course entre AWS, Google et Microsoft ne montre aucun signe de ralentissement, près de deux ans après le lancement de ChatGPT par OpenAI.

Parmi les trois géants du cloud, AWS semble être celui qui se concentre le plus sur les besoins des entreprises, selon les analystes du secteur IT.

« La perception que j’ai, lorsque je regarde ce qu’AWS fait avec Q et Bedrock, est que le fournisseur est très axé sur l’entreprise et sur le B2B », lance Jason Andersen. « Les concurrents tentent de satisfaire des bases de clients beaucoup plus diversifiées. Ils offrent plus d’étendue, mais pas de profondeur ».

Par exemple, la nouvelle capacité de personnalisation d’Amazon Q Developer aide les développeurs à utiliser leur base de code interne et fournit des recommandations plus pertinentes et plus utiles dans les fonctions de code en ligne (inline coding), selon AWS. Cette fonctionnalité est désormais accessible en disponibilité générale.

Dans la même veine, Amazon Q est désormais infusé dans SageMaker, le service d’AWS pour la conception, l’entraînement et le déploiement de modèles de machine learning et d’IA.

Les utilisateurs de SageMaker ont accès aux capacités existantes de Q (autrefois présentes dans CodeWhisperer), telles que la génération de code, le débogage et les conseils, ainsi que de nouvelles capacités, telles que l’assistance à la préparation des données, à l’entraînement et au déploiement des modèles.

Amazon Q Apps, une fonctionnalité rattachée à Amazon Q Business, est aussi disponible dès à présent. Contrairement à App Studio qui cible en premier lieu les membres des équipes techniques sans compétence de programmation, Q Apps s’adresse aux métiers.

« Ce que je constate dans mes recherches, c’est que les organisations veulent publier du code toutes les heures », affirme Paul Nashawaty, analyste au Futurum Group. Mais seules quelques entreprises arrivent à atteindre cet objectif, note-t-il.

« En ajoutant Amazon Q Apps à Amazon Q Business, cela permet d’accélérer la création de ces applications », avance-t-il.

Plus de contrôles sur les modèles dans Amazon Bedrock

Au-delà d’Amazon Q, AWS a ajouté des fonctionnalités à Bedrock, parmi lesquelles la possibilité, en préversion, de fine-tuner le modèle Claude 3 Haiku d’Anthropic.

AWS veut par ailleurs aider ses clients à créer des agents d’IA dans Amazon Bedrock. Pour cela, les agents sont couplés à une couche de mise en cache des informations provenant de différentes sessions. Par exemple, lorsqu’un client réserve un vol, les agents dotés de cette couche de contexte se souviennent des plans de voyage antérieurs et des options de restauration choisies par les clients.

Les agents interprètent également le code pour résoudre des cas d’usage complexes liés aux données de l’entreprise ou de tiers. Par exemple, les utilisateurs peuvent demander aux agents d’examiner l’historique des prix de l’immobilier pour trouver des opportunités d’investissement.

Ces ajouts s’accompagnent de garde-fous supplémentaires dans Amazon Bedrock. Ceux-là s’adressent aux entreprises préoccupées par les hallucinations des grands modèles de langage, et plus particulièrement par les fausses informations qu’ils pourraient générer.

« Cela va permettre de mettre en place le type de règles nécessaires pour produire le type de résultats que les organisations recherchent. Il faut s’assurer que les données sont harmonisées ».
Paul NashawatyAnalyste, Futurum Group

En ce sens, le fournisseur offre des contrôles contextuels dans Guardrails pour Amazon Bedrock afin de détecter ces possibles dérives.

L’intégration de la « mise à la terre » (grounding) dans Bedrock est importante, notamment parce qu’AWS permet aux clients d’utiliser encore plus de sources de données dans le cadre d’architecture retrieval augmented generation (RAG), d’après Paul Nashawaty.

Les trois lettres RAG renvoient à un concept d’architecture mêlant technique de recherche traditionnelle, techniques de machine learning et LLM pour obtenir des réponses plus précises.

« Vous pouvez aller beaucoup plus loin en combinant les modèles et la RAG », vante Matt Wood, vice-président des produits d’intelligence artificielle chez AWS, lors d’une présentation liminaire. « L’architecture [RAG] est un élément clé de la construction d’applications cohérentes et capables, et avec les garde-fous, nous rendons l’utilisation de ces applications plus sûre ».

« Cela va permettre de mettre en place le type de règles nécessaires pour produire le type de résultats que les organisations recherchent », renchérit Paul Nashawaty. « Il faut s’assurer que les données sont harmonisées ».

Gouverner les LLM où qu’ils soient

En tout cas, les garde-fous pourront être appliqués pour pratiquement tous les LLM, à travers une API agnostique.

Celle-ci permet aux clients d’AWS d’appliquer des mesures de protection à toutes leurs applications GenAI à travers différents modèles de fondation, quelle que soit l’infrastructure qu’ils utilisent.

Selon Jason Andersen, cela permettrait de centraliser la gouvernance des modèles et d’abstraire les services spécifiques à différents fournisseurs. « Cela va véritablement aider les clients dans leur stratégie d’IA générative », considère-t-il.

Problème, selon l’analyste, AWS ne sait pas encore comment raconter son histoire.

De nombreuses entreprises ont encore l’impression qu’en choisissant AWS, elles devront se limiter à ce seul fournisseur. Cela n’est pas vrai, insiste Jason Andersen.

« Il faudra peut-être sensibiliser les gens et leur dire : “[...] Nous voulons vous aider à faire des choses différentes et peut-être même à faire des choses différentes sur plusieurs clouds”. »
Jason AndersenAnalyste, Moor Insights and Strategy

Dans les faits, le terme multicloud a longtemps été banni du vocabulaire d’AWS. C’est la pression exercée par les clients, les autorités réglementaires et les actions prises par les concurrents qui ont poussé AWS à consentir à la nécessaire connexion de ces services avec ceux de ses voisins.

« Il faudra peut-être sensibiliser les gens et leur dire : “Hé, écoutez, nous ne voulons pas seulement que vous mettiez toutes vos charges de travail chez nous. Nous voulons vous aider à faire des choses différentes et peut-être même à faire des choses différentes sur plusieurs clouds” », insiste Jason Andersen. « Il s’agit principalement d’une question d’éducation, et pas nécessairement d’enjeux technologiques à ce stade ».

En ce sens, AWS dit avoir atteint son objectif d’améliorer les compétences de 29 millions de personnes dans le monde dans le domaine du cloud grâce à des formations gratuites. Dans ce cadre, le fournisseur a présenté SimuLearn, un système d’apprentissage immersif basé sur la GenAI, pour fournir des formations pratiques. De plus, la plateforme d’e-learning gamifié Cloud Quest a été enrichie pour faciliter l’apprentissage de l’IA générative auprès des profils techniques. Simultanément, AWS a lancé une formation sur Amazon PartyRock afin d’aider les usagers à construire leurs propres applications d’IA.

AWS se rapproche de Deloitte et de Scale AI

Enfin, AWS a révélé plusieurs nouveaux partenariats.

Le géant du cloud sait qu’il ne pourra démocratiser à lui seul les usages de l’IA auprès des entreprises. En ce sens, AWS et Deloitte ont désormais une collaboration stratégique pluriannuelle. Les deux acteurs mettront en place un laboratoire d’innovation en vue d’aider les clients à explorer les technologies futures telles que l’intelligence artificielle générale, le machine learning quantique et la robotique autonome.

De plus, AWS s’est allié à Scale AI, un partenaire privilégié pour la personnalisation et l’évaluation de modèles. L’objectif : convaincre les entreprises et les organisations du secteur public d’utiliser Scale GenAI Platform et Scale Donovan pour évaluer leurs applications d’IA générative, ainsi que pour personnaliser, configurer et affiner les LLM.

Il s’agit de s’attaquer à certains goulets d’étranglement qui empêchent les organisations de faire évoluer leurs charges de travail et leurs projets GenAI, explique Vijay Karunamurthy, directeur technique de Scale AI.

Parmi ces blocages, il y a la difficulté d’évaluer les applications et de comprendre les critères de référence qui doivent être respectés avant qu’un modèle ou une application puisse être déployé.

« Le goulet d’étranglement le plus important (…) concerne la capacité à faire confiance aux modèles, aux résultats et à l’assurance que le modèle ne se trompe pas sur les faits », constate Vijay Karunamurthy.

« L’évaluation est la clé d’un déploiement responsable des modèles d’IA générative », ajoute-t-il.

« Si l’on n’est pas en mesure d’évaluer la façon dont les modèles assurent la sécurité et la partialité sur tous ces différents points, on ne sait pas vraiment ce qu’est une utilisation responsable de l’IA », tranche-t-il.

Pour approfondir sur IA appliquée, GenAI, IA infusée

Close