AWS : « Nos clients français passent l’IA en production »

Dans cette interview, le DG d’AWS pour la France et l’Europe du Sud et son directeur technique expliquent que l’hyperscaler s’efforce de proposer des solutions plus intégrées pour répondre à des entreprises qui ont déjà dépassé le stade des expérimentations.

Lors de son événement re:Invent 2024 qui vient de s’achever à Las Vegas, l’hyperscaler AWS a fait une pléthore d’annonces dont la très grande majorité concernait l’IA. De l’infrastructure, avec de nouvelles instances de calcul basées sur les puces maison Trainium, un peu plus rentables que les GPU H200 de Nvidia.

Mais surtout de nouveaux services pour collecter les données, les regrouper, programmer des applications pour injecter ces données dans des LLM et même router automatiquement les prompts parmi une myriade de petits LLMs, qui sont moins chers et plus efficaces ensemble pour générer des réponses.

Les services d’IA utilisables par les développeurs sont regroupés sous la marque Bedrock. AWS (ou plutôt sa maison mère Amazon) a aussi lancé sa propre famille de LLMs, baptisée Nova. Le chatbot d’AWS, Q Business, s’intègre quant à lui aux outils de développement et de monitoring.

Pour comprendre comment ces annonces s’accordent avec les attentes des entreprises françaises, LeMagIT est parti à la rencontre de Julien Groues, le directeur général d’AWS pour la France et l’Europe du Sud (à gauche sur la photo en haut de cet article) et Stéphane Hadinger, son directeur technique (à droite sur la photo). Interview.

Quel est le retour de vos partenaires et de vos clients sur les annonces qu’AWS vient de faire lors du salon AWS re:Invent 2024 ?

Julien Groues : La majorité des retours que nous avons de nos clients français concerne BedRock, le service par lequel les entreprises peuvent accéder aux modèles d’IA générative du marché, et la nouvelle famille Nova de modèles d’IA générative d’Amazon. Dès l’issue du premier keynote, ils ont tenu à nous faire savoir qu’ils avaient hâte de tester tous ces modèles d’IA générative, de tester nos capacités à rendre la donnée plus disponible pour l’IA.

Cet attrait tout particulier en France pour les annonces concernant l’IA a une explication. L’écosystème IA français est l’un des plus riches au monde avec celui des Américains. Et nos clients se sentent particulièrement concernés quand ils voient que la nouvelle marketplace de Bedrock par AWS accueille d’emblée trois Français : Poolside et Mistral, pour leurs propres modèles, et Hugging Face, pour l’accès à une large bibliothèque de briques Open source, qui permettent de créer des applications d’IA.

Ensuite, la particularité de nos clients français est qu’ils sont plus que d’autres attachés à la règle des trois C : la confidentialité, le coût, le choix. Concernant le choix, nos clients nous disent qu’ils apprécient la quantité d’innovations à laquelle ils peuvent accéder très rapidement sur AWS. Concernant la confidentialité, tous les modèles d’IA que nous proposons s’opèrent dans les environnements de nos clients. L’affinage des modèles reste chez nos clients. Il n’y a rien qui part ailleurs sur Internet. Nous n’utilisons pas vos données ou vos prompts pour entraîner d’autres modèles.

Ces retours de vos clients diffèrent-ils par rapport à l’année dernière ?

Julien Groues : La grande différence par rapport à l’année dernière est que nos clients sont beaucoup moins dans les preuves de concept, ils ont déjà des choses en production, qui fonctionnent, avec des retours sur investissement. Ils sont maintenant sur l’amélioration de leurs processus, « faire mieux, plus vite, moins cher ». La multinationale Imerys française, qui utilisait déjà deux modèles d’Anthropic pour s’essayer à l’IA, vient par exemple de déployer pour 500 de ses collaborateurs un assistant basé sur une IA générative qu’elle a simplement piochée sur Bedrock.

Et au sujet des coûts, de quelle manière êtes-vous moins cher ?

Julien Groues : Notre intérêt est d’offrir de nombreux types de modèles. Notamment des petits modèles plus spécialisés qui coûtent moins chers que les grands modèles traditionnels. Nous revendiquons d’offrir le plus grand potentiel d’utilisation des modèles, y compris du routage intelligent de vos prompts entre les modèles de Bedrock les plus adaptés. Nos services sont plus riches, ce qui les rend ensemble plus efficaces et c’est de cette efficacité que nos clients tirent une économie.

Ne craignez-vous pas qu’avec trop de services, votre offre soit moins lisible ?

« SageMaker Unified Studio propose aux entreprises de cataloguer les données, de leur accorder des règles de gouvernance appropriées pour les métiers et l’IA, d’automatiser les collectes de données. »
Stéphane HadingerDirecteur technique AWS pour la France et l’Europe du Sud

Stéphane Hadinger : C’est justement pour cela que nous unifions aujourd’hui les fonctions, notamment au travers de SageMaker Unified Studio. Celui-ci propose aux entreprises de cataloguer les données, de leur accorder des règles de gouvernance appropriées pour les métiers et l’IA, d’automatiser les collectes de données. Et il fait tout cela en pilotant ensemble, depuis un seul écran, AWS Glue, EMR, Redshift, DynamoDB, S3, BedRock.

Notre stratégie consiste à fournir les fonctionnalités innovantes le plus rapidement possible. Puis, au bout d’un moment, capturer les différents besoins de nos clients autour d’une approche unifiée. 

Voyez SageMaker pour le traitement des données et Bedrock pour celui de l’IA comme des services rationnalisés, au même titre que Lambda, la plateforme que nous avons créée il y a dix ans pour fédérer nos solutions serverless [plutôt que payer l’usage d’une machine virtuelle qui porte une application, d’après ses caractéristiques, l’entreprise paie pour chaque requête faite à cette application, N.D.R.].

Cette agglomération de services derrière un service parapluie complexifie-t-elle votre facturation ?

Stéphane Hadinger : Non ! Nous sommes toujours extrêmement transparents sur les axes de facturation. Et puis nos clients rencontrent nos experts FinOps pour les aider à se projeter. À ce sujet, il est récurrent que des clients nous demandent d’avoir juste une facture globale, un forfait. Mais en réalité, ce qu’ils vont chercher chaque fois, c’est à optimiser. Donc le fait de changer de modèle, de passer aux instances Trinium, cela réduit de 40 % les coûts. Amazon Nova, ça va peut-être encore réduire les coûts.

Je suis toujours un grand défenseur de cette idée où, quand vous savez attacher des coûts directement à une utilisation, cela signifie aussi que si une personne, un data-scientist ou un développeur peut optimiser, peut faire un petit peu plus intelligemment ou avec un petit peu moins de ressources, instantanément vos coûts baissent.

Outre l’aspect financier, combien de temps gagne un client quand il utilise vos services cousus pour fonctionner ensemble ?

Stéphane Hadinger : Sur les bases de données, sur les services serverless de Lambda, nous avons observé que la charge de travail des administrateurs avait baissé de deux tiers. Mais, d’une manière globale, il est assez difficile de mesurer le temps qu’on gagne, car, dans la plupart des cas, un service aggloméré va surtout permettre à une équipe d’utiliser un service qu’elle n’aurait jamais utilisé s’il n’avait pas été simplifié.

« Les entreprises françaises ont véritablement gagné en maturité sur l’IA. Elles vont maintenant au-delà de la simple amélioration de l’efficacité du collaborateur. »
Julien GrouesDirecteur général d’AWS pour la France et l’Europe du Sud

Par exemple, le fait de rendre le stockage S3 plus intelligent pour y simplifier l’utilisation des fichiers Apache Iceberg, cela évite d’avoir à gérer des pools de machines, de gérer l’optimisation des tables, de gérer la compression des tables. Certaines entreprises ne l’auraient jamais fait. Aujourd’hui, elles vont pouvoir le faire sans s’en rendre compte parce que nous leur proposons de simplement stocker et faire des requêtes.

C’est la même chose avec Bedrock : il permet à une entreprise d’avoir son modèle, de faire son prompt, d’obtenir sa réponse. Cette entreprise n’aurait peut-être pas pu déployer d’IA générative si elle avait dû gérer elle-même l’infrastructure, la redondance, la résilience, le chiffrement, etc.

Parmi vos clients français qui manifestent autant d’attrait pour l’IA, quelle part représentent les éditeurs d’applications SaaS ?

Julien Groues : Autant que des entreprises utilisatrices. Les entreprises françaises ont véritablement gagné en maturité sur l’IA. Elles vont maintenant au-delà de la simple amélioration de l’efficacité du collaborateur. Cela dit, oui, nous travaillons beaucoup en ce moment avec des startups sur la création de nouveaux business, sur l’invention de nouvelles activités grâce à ces modèles-là.

Pour approfondir sur IA appliquée, GenAI, IA infusée