microphoto1 - Adobe
Amazon double son investissement dans Anthropic
Le géant de l’e-commerce et du cloud compte sur les papas des modèles Claude 3.5 pour faire venir à lui davantage de clients, tandis qu’il devrait soulager la facture de calcul de son protégé, contre des efforts de R&D dans ses puces dédiées à l’IA.
Amazon a annoncé un investissement de quatre milliards de dollars supplémentaires auprès d’Anthropic. Le fournisseur de LLM à l’origine des collections Claude utilisera davantage d’instances AWS propulsées par les puces Trainium pour entraîner ses LLM, et des instances Inferentia pour les inférer.
Anthropic dit collaborer avec Annapurna Labs, le laboratoire R&D d’AWS derrière les puces Trainium et Inferentia.
Anthropic se concentre sur la prise en charge des puces d’AWS
« Grâce à une collaboration technique approfondie, nous écrivons des kernels qui nous permettent d’interfacer directement avec le silicium de Trainium, et nous contribuons au SDK AWS Neuron pour renforcer Trainium », déclare Anthropic dans un communiqué de presse. « Nos ingénieurs travaillent en étroite collaboration avec l’équipe de conception de puces d’Annapurna afin de tirer le maximum d’efficacité de calcul du matériel, que nous prévoyons d’exploiter pour entraîner nos modèles de fondation les plus avancés ».
Les clients d’AWS, eux, auront l’exclusivité temporaire du fine-tuning des nouveaux modèles Claude depuis la plateforme IA/ML Amazon Bedrock.
« Notre collaboration avec Amazon a été déterminante pour apporter les capacités de Claude à des millions d’utilisateurs finaux à travers des dizaines de milliers de clients sur Amazon Bedrock », a déclaré Dario Amodei, cofondateur et PDG d’Anthropic, dans un communiqué de presse publié par Amazon.
Selon The Information, Anthropic aurait calculé qu’il dépenserait plus de 2,7 milliards de dollars, en grande partie à cause de la puissance de calcul nécessaire à l’entraînement et à l’inférence de ses LLM.
Huit milliards de dollars d’investissement pour une « part minoritaire »
Le géant de l’e-commerce et du cloud avait déjà investi 4 milliards de dollars dans le concurrent d’OpenAI à partir du mois de septembre 2023.
Au total, selon Crunchbase, Anthropic a levé 13,7 milliards de dollars, dont huit milliards apportés par Amazon, soit plus de 58 % des fonds levés par la startup. Pour autant, le géant du e-commerce resterait un « investisseur minoritaire », tout comme Alphabet, maison mère de Google, qui avait investi 2 milliards de dollars dans la licorne pour une part de 10 %.
À titre indicatif, OpenAI a collecté environ 17,9 milliards de dollars depuis sa création, majoritairement auprès de Microsoft.
Pour Amazon, ce partenariat serait également déterminant. Les performances des modèles Claude 3.5 lui permettraient de convertir des clients qui exploitaient auparavant « d’autres fournisseurs de LLM » et d’accueillir leur charge de travail sur AWS. Le fournisseur liste 11 startups dans ce cas.
Amazon cite par ailleurs soixante clients parmi une liste d’une « dizaine de milliers » qui exploiterait Amazon Bedrock et les LLM d’Anthropic. Pfizer, Cloudera, Siemens, Zendesk, Ryanair, ou encore LexisNexis sont nommés.
« Les clients utilisant l’intelligence artificielle générative avancée d’Anthropic et les vastes fonctionnalités disponibles via Amazon Bedrock alimentent une large gamme d’applications, allant des chatbots de service client, en passant par des assistants de programmation, de traduction, de découverte de médicaments, jusqu’à l’aide à la conception de produits et au traitement de processus commerciaux complexes », affirme Amazon.
L’IA générative, une poule aux œufs d’or ? Amazon y croit dur comme fer
Cette communication tapageuse pourrait passer pour un complexe face à la popularité de Microsoft dans le domaine de l’IA générative.
Si Amazon injecte autant d’argent dans Anthropic, c’est que l’IA générative est synonyme de croissance.
« L’activité IA d’AWS représente un chiffre d’affaires de plusieurs milliards de dollars qui continue de croître à un taux à trois chiffres d’une année sur l’autre et qui, à ce stade de son évolution, croît plus de trois fois plus vite qu’AWS elle-même », a déclaré Andy Jessy, président et CEO d’Amazon, ex-PDG d’AWS lors de la présentation des résultats du troisième trimestre fiscal 2024, le 31 octobre dernier.
Au Q3 2024, AWS a engrangé 27,4 milliards de dollars contre 17 milliards de dépenses opérationnelles. Pour les neuf premiers mois de l’année, le fournisseur de cloud affiche un résultat net opérationnel de 29,2 milliards de dollars, contre 17,4 milliards à la même période en 2023… et pour des dépenses en légère hausse (49,089 contre 49,568 mds $). Le cloud chez Amazon génère désormais 110 milliards de dollars de revenu annuel récurrent.
« Nous prévoyons de dépenser environ 75 milliards de dollars de CapEx en 2024 », poursuit le CEO d’Amazon. « Je pense que nous dépenserons davantage en 2025. Et la majorité de ces dépenses est destinée à AWS et, plus précisément, les hausses sont dues à l’IA générative ».
À la fin du mois d’avril 2024, les prévisions de dépenses d’investissement étaient évaluées aux alentours des 60 milliards de dollars. Brian Osavsky, directeur financier d’Amazon, avait alors rappelé qu’elles avaient atteint 48,4 milliards en 2023. Au cours de la première moitié de l’année 2024, Amazon a déjà investi 30,5 milliards de dollars.
« Plus la demande croît rapidement, plus nous devons investir rapidement dans les centres de données, les équipements réseau et le matériel. Et bien sûr, concernant les équipements dédiés à l’IA, comme les accélérateurs ou les puces, les coûts sont plus élevés que pour ceux basés sur des CPU », explique Andy Jessy.
Andy Jessy croit que l’IA générative représente une « opportunité énorme », « peut-être unique dans une vie ».