Worawut - stock.adobe.com
Course à l’IA générative : Amazon investira « jusqu’à 4 milliards de dollars » dans Anthropic
Cette prise de part minoritaire s’accompagne d’un partenariat avec AWS. Le géant du cloud deviendra le fournisseur privilégié d’Anthropic, qui participera à l’évolution des gammes de puces Trainium et Inferentia et du service managé Amazon Bedrock. Selon les analystes, le groupe veut se donner les moyens de concurrencer Microsoft et OpenAI.
Chacun son poulain. Après les importants investissements de Microsoft dans OpenAI, après la participation de Salesforce Ventures au financement d’HuggingFace, c’est au tour d’Amazon de mettre la main au portefeuille.
Le groupe créé par Jeff Bezos entend investir « jusqu’à 4 milliards de dollars » dans la startup Anthropic, spécialisée dans la sécurité et la recherche en intelligence artificielle (IA). En contrepartie, sa filiale Amazon Web Services (AWS) s’apprête à devenir le principal fournisseur de cloud de l’entreprise pour « ses charges de travail critiques ».
Anthropic « développera, entraînera et déploiera ses futurs modèles » sur les instances Trainium et Inferentia et participera à leur évolution, selon un communiqué de presse.
De fait, Nvidia domine la mêlée dans le domaine de l’IA générative et Google Cloud commence à partager son expertise dans la bonne gestion de ses TPU. S’assurer une forme d’indépendance par rapport aux puces Nvidia passe aussi (et surtout) par le développement de librairies compatibles avec différentes charges de travail.
Pour rappel, Anthropic est l’un des trois grands acteurs de l’IA générative scrutés de près par les investisseurs aux côtés d’OpenAI et de Cohere. Ces trois noms sont parmi les plus récurrents dans les présentations des éditeurs, que ce soit Salesforce, SAP, ou encore Oracle.
Les atouts d’Anthropic
Anthropic s’est illustré par le développement du système d’IA générative Claude, un grand modèle de langage (LLM) propriétaire, dont la deuxième version a été présentée en juillet dernier. Celle-ci a la particularité de disposer d’une fenêtre de contexte de 100 000 tokens (contre 32 000 pour GPT-4). Cela permet de résumer des textes plus longs, de doter un chatbot d’une meilleure mémoire, ou d’analyser de longues portions de code.
Techniquement, la startup est reconnue pour avoir mis au point Constitutional AI, une méthode d’apprentissage par renforcement avec retours humains d’information (RHLF ou en anglais « reinforcement learning from human feedback ») permettant de contrôler finement la toxicité d’un LLM. Les grands principes de cette approche ont inspiré Meta pour entraîner son modèle Llama 2.
Contrairement à OpenAI, Anthropic n’a pas réellement cherché à cibler le grand public. Son offre s’adresse principalement aux entreprises. Outre des API pour accéder à ses modèles, la startup peut affiner Claude ou Claude 2 pour le besoin de ses clients. Elle a également lancé Claude Pro, une offre d’agent conversationnel concurrente à ChatGPT Plus.
Anthropic dispose d’ores et déjà d’un partenariat avec AWS pour mettre à disposition ses modèles depuis la plateforme Amazon Bedrock. Cette collaboration sera étendue dans le cadre de la promesse de financement engagée par le géant de l’e-commerce. Les clients d’AWS auront accès en avant-première à des moyens de fine-tuning et de personnalisation des modèles pour leurs besoins.
Au cours des derniers mois, Anthropic a attiré des investissements de la part d’un large éventail d’entreprises, dont SAP et l’opérateur télécom coréen SK Telecom. Ce dernier a révélé en août 2023 qu’il investirait 100 millions de dollars dans l’entreprise.
Quelques mois auparavant, Anthropic avait aussi annoncé qu’elle avait levé 450 millions de dollars en financement de série C auprès de la société d’investissement Spark Capital.
Le pari d’Amazon
L’investissement d’Amazon montre que le fournisseur de cloud mise sur Anthropic à l’instar de ce que Microsoft a fait avec OpenAI, le créateur de ChatGPT, à partir de 2019, selon Nick Patience, analyste chez S&P Global Market Intelligence.
Cependant, la différence est que leur partenariat n’est pas exclusif, ce qui donne à Anthropic la liberté d’utiliser d’autres fournisseurs de cloud.
Nick PatienceAnalyste, S&P Global Market Intelligence
« Il s’agit d’une sorte de pari consistant à obtenir une forme de contrôle sur la manière dont ces modèles de fondations sont construits et déployés », estime Nick Patience.
Selon Jim Hare, analyste chez Gartner, c’est aussi une façon pour Amazon de montrer qu’il n’est pas en retard dans la course à l’IA générative.
« Amazon bénéficie du support d’un fournisseur de modèles qui construit et exécute des LLM très performants qui seront une vitrine technologique de leur service managé Bedrock, et de leurs puces dédiées à l’IA », affirme-t-il.
L’accent mis sur les puces est intéressant, d’autant plus que Nvidia, fabricant de puces d’IA et développeur de logiciels, continue de dominer le marché, rappelle Nick Patience.
AWS et Google s’attachent à concevoir leur propre silicium et à l’optimiser pour les modèles. « Ils vont finir par se mesurer à Nvidia sur ce type de marché, mais pas tout de suite », anticipe l’analyste.
L’investissement permet également à AWS de bénéficier des technologies issues des relations d’Anthropic avec d’autres investisseurs, selon Mary Jander, analyste chez Futuriom.
« Ils [Amazon et AWS] ont l’avantage de faire travailler Anthropic sur leurs composants et aussi sur divers produits d’Amazon, tels que les moteurs de recherche et d’autres produits, pour lesquels ils peuvent utiliser la technologie d’Anthropic », assure Mary Jander. « Je pense que c’est vraiment un coup de maître pour eux ».
Jongler avec les desiderata des fournisseurs cloud
Toutefois, Anthropic pourrait être confronté à un problème : sa relation avec Amazon pourrait avoir des effets néfastes sur sa relation avec d’autres investisseurs tels que Google, même si le partenariat d’Anthropic avec AWS n’est pas exclusif, note l’analyste de Futuriom.
AWS n’est pas le seul fournisseur cloud à avoir investi dans la startup. Google a également injecté environ 300 millions de dollars dans Anthropic, mais cet engagement reste plus modeste que celui d’Amazon.
« L’accord initial entre Anthropic et Google prévoyait qu’Anthropic bénéficierait des technologies et du savoir de Google », rappelle-t-elle. « Avec AWS, cela va plus loin : il s’agit de concevoir des modèles de fondation et d’une implication un peu plus directe dans la mise au point des puces ».
AWS a tendance à s’affirmer dans ses relations avec ses partenaires proches, ce qui représente un risque pour la jeune pousse, selon Mary Jander.
« AWS est très exclusif en ce qui concerne ses services en cloud propriétaires », déclare-t-elle. « Ils ne jouent pas les gentils avec les autres. Je pense qu’Anthropic sera soumis aux caprices d’AWS. Elle [la startup] devra lutter pour conserver son indépendance ».
Moins de rachats, plus de partenariats
Ces types de partenariats reflètent un changement dans les relations entre les grands et les petits fournisseurs. Auparavant, il était courant que les grandes entreprises technologiques acquièrent des entreprises plus petites plutôt que de simplement s’associer avec elles ou de les soutenir financièrement.
Cependant, les partenariats entre Anthropic et AWS et Google, Cohere et Oracle, et OpenAI et Microsoft montrent que l’IA générative nécessite différents composants.
« Vous avez besoin de composants, de modèles de fondation, et ces startups ont une expertise très spécifique », indique Mary Jander. « Personne ne sera en mesure de dominer [le marché] ».
Pour approfondir sur Intelligence Artificielle et Data Science
-
Stockage : CloudFS plus économe et sécurisé, mais toujours pas complet
-
AWS et Box étendent leur partenariat pour l’IA générative Q et le développement d’applications
-
L’IA agentique, nouveau cheval de bataille du stockage et de la sauvegarde
-
Llama 3.2 : Meta prive l’Union européenne de ses modèles multimodaux