« The new way to cloud » : Google cloud veut se différencier sur le terrain de la GenAI
Lors de sa conférence Next, Google Cloud a multiplié les annonces autour de l’IA générative. Un pari qu’il espère payant pour s’assurer que les POC passent en production et que les startups spécialistes du domaine maintiennent leurs engagements.
Lors de sa conférence Next, Google Cloud a multiplié les annonces autour de l’IA générative. Un pari qu’il espère payant pour s’assurer que les POC passent en production et que les startups spécialistes du domaine maintiennent leurs engagements.
Plus de 1 000 améliorations et nouveaux produits depuis un an pour les data scientists, les métiers jusqu’aux utilisateurs finaux.
Le plus petit des géants du cloud investit largement pour tenter de rattraper Microsoft, qui, avec OpenAI, a pris la tête de cette course en cours depuis novembre 2022. La plupart des annonces concernent en réalité des services en préversion, en préversion privée ou en accès anticipé. LeMagIT a arrêté de compter à 49 fonctions présentées en préversion, en excluant le segment Workspace. Certaines d’entre elles avaient déjà été dévoilées.
Du choix, du choix, du choix
Force est de constater que l’ensemble de la plateforme est en train d’évoluer pour infuser de grands modèles de langage, principalement ceux de Google Cloud estampillés Gemini, mais les clients peuvent accéder à des centaines de LLM et algorithmes tiers pour couvrir leurs besoins.
« Nous savons que chacun d’entre vous a besoin que tout cela fonctionne avec son système existant et soit soutenu par un vaste écosystème qui lui donne du choix », affirme Thomas Kurian, PDG de Google Cloud lors de la conférence d’ouverture de Next’24. « Notre plateforme ouverte offre un choix à chaque couche : des puces, des modèles, des environnements de développement, des bases de données, dont des bases de données vectorielles, et la prise en charge d’un large panel d’applications métiers ».
Dans cette logique d’ouverture, Google Cloud entend adopter le concept de cloud « distribué » à l’IA générative. Le fournisseur fait partie des quelques acteurs, dont IBM, à croire publiquement qu’il est possible et nécessaire de pouvoir exécuter des LLM sur site et dans des instances cloud hybride.
« Nous construisons avec un large écosystème de partenaires incluant des éditeurs de logiciels indépendants et des partenaires technologiques, et nos partenaires de services ont augmenté leurs capacités de manière agressive », ajoute Thomas Kurian.
Si l’IA générative n’est pas encore massivement déployée par les entreprises, elle a déjà des effets sur les produits de GCP, selon le PDG.
Un effet qui se fait aussi sentir sur les infrastructures du fournisseur. « Au cours de l’année écoulée, l’utilisation des GPU et des TPU sur GCP a augmenté de plus de 900 % », affirme Amit Zavery, vice-président et directeur général, Head of Platform chez Google Cloud.
Vers la prolifération des « agents IA »
Cette effervescence, les porte-parole de Google Cloud voulaient le prouver en citant un large panel de clients qui testent ou qui commencent à déployer les applications d’IA et d’IA générative à large échelle.
Mercedes Benz, Bayer, Carrefour, ING, Verizon, Orange, Capgemini, Pfizer, Vodafone… Plus de 300 clients et partenaires de GCP présentent leur cas d’usage de l’IA générative lors de Google Cloud Next’24.
Thomas KurianPDG, Google Cloud
« Nous sommes à un moment charnière de notre industrie. Ensemble, nous sommes en train de créer une nouvelle ère d’agents d’IA générative construits sur une nouvelle plateforme véritablement ouverte pour l’IA. Et nous réinventons l’infrastructure pour la soutenir », avance Thomas Kurian, PDG de Google Cloud.
Ces agents sont les mêmes que ceux évoqués par Nicolas Cavallo, directeur de l’IA générative chez OCTO Technology lors de la Grosse Conf’.
« Les agents peuvent se connecter à d’autres agents et à des humains, et ils transformeront la façon dont chacun d’entre vous interagit avec les équipements informatiques et les contenus web que vous connaissez », promet Thomas Kurian. « Nos clients construisent les premières versions d’agents en utilisant notre infrastructure d’intelligence artificielle, nos modèles Gemini, Vertex AI, Workspace et un ensemble de services Google Cloud ».
GCP prétend qu’il est possible d’exploiter les capacités multimodales de ces LLM ainsi que leur grande fenêtre de contexte pour propulser des agents spécialisés dans l’accomplissement de différentes tâches.
Et aux porte-parole de Google de multiplier les démonstrations de ces agents, pour l’heure indépendants. Des agents pour la génération de code, pour l’analyse de données, le traitement des incidents de sécurité, la gestion d’une infrastructure GCP, pour interagir avec des clients finaux.
L’IA générative serait pour Google, in fine, « the new way to cloud », que l’on pourrait traduire par « la nouvelle façon de faire du cloud » ou « la nouvelle voie vers le cloud ».
Des arguments à faire valoir auprès des spécialistes de l’IA générative
La stratégie de Google Cloud ne semble pas si originale une fois comparée à celle de ses concurrents. Eux aussi multiplient les annonces pour tenter de remporter l’adhésion des entreprises ainsi que des startups et d’accélérer les migrations vers le cloud. C’est en tout cas ce qu’a mis en avant AWS lors de son événement parisien du début de mois d’avril.
Google Cloud serait cependant plus influent auprès des acteurs de l’IA générative que ses concurrents : « 90 % des licornes dans le domaine de la GenAI sont des clients de Google Cloud », avance Thomas Kurian. « Selon notre dernière étude, 60 % des startups utilisent la plateforme Google Cloud », ajoute-t-il lors d’une conférence de presse.
GCP peut miser sur les TPU et sur son expérience dans l’entraînement de modèles d’IA. Par exemple, AssemblyAI a utilisé les puces de Google Cloud pour entraîner son modèle de speech to text Universal 1 sur 12,5 millions d’heures de fichiers audio.
« Cela représente plus d’un pétaoctet de données vocales. Le simple fait de déplacer ces données n’était donc pas anodin. À l’époque, les TpuV5e venaient de sortir il y a environ un an, et nous avons eu un accès anticipé à ces puces conçues pour l’inférence, mais pour notre cas d’usage, nous avons pu les utiliser pour l’entraînement avec de très bons compromis en matière de performances et de coûts pour ce que nous essayons de faire », illustre Dylan Fox, CEO d’Assembly AI.
« Nous avons observé des performances deux fois supérieures par rapport à nos anciennes architectures. Je n’ai pas été payé pour dire cela, mais je ne pense pas qu’il aurait été possible pour une startup comme la nôtre d’obtenir ce résultat par nos propres moyens ».
En clair, Google laisse entendre que les entreprises les plus innovantes sont clientes ou partenaires de GCP.
L’IA générative, un train que GCP et ses clients ne doivent pas rater
L’IA générative est, en tout cas, l’une des raisons mentionnées par les dirigeants de Google Cloud pour justifier les résultats en hausse de 26 %, de 7,31 milliards de dollars au quatrième trimestre fiscal 2022 à 9,19 milliards de dollars au quatrième trimestre fiscal 2023. Pour rappel, Google Cloud inclut les offres Workspace, les solutions concurrentes à Microsoft 365.
« La forte demande que nous constatons pour notre portefeuille d’IA verticalement intégré crée de nouvelles opportunités pour Google Cloud dans tous les domaines de produits », affirmait Ruth Porat, présidente et directrice des investissements ; directrice financière d’Alphabet et de Google, en janvier dernier.
Pour Clément David, CEO de Padok, une filiale consacrée au DevOps et au cloud de l’ESN Theodo, avec l’IA générative, Google Cloud vivrait un « moment » que les autres fournisseurs cloud ne connaîtraient pas. La multiplication des annonces de services en préversion ou en accès anticipé serait de bonne guerre.
« Pourquoi ? Historiquement, GCP est moins présent sur le segment des grands groupes, même s’il a accéléré ces deux dernières années. Ils ont plus de clients à gagner qu’à perdre », lance le CEO. « À côté de ça, Google Cloud est très légitime dans le domaine du traitement des données et est, de fait, un expert du “search”. Les produits sont bons et sont internes à Google : GCP n’a pas forcément besoin de partenariats avec Databricks ou Snowflake », poursuit-il.
« Enfin, Google Cloud peut utiliser Workspace comme une vitrine, en y introduisant des fonctions d’IA générative “sous stéroïdes”. Toutes les cartes peuvent être rebattues avec l’IA générative » anticipe-t-il tout en reconnaissant que, pour le moment, Microsoft a pris la tête de cette course en s’alliant à OpenAI.
En coulisse, « l’urgence » VMware
Dans les allées du salon, l’IA générative n’est pas le seul sujet sur les lèvres des DSI. Selon Clément David, le gros des discussions tourne autour du changement de propriétaire de VMware. Comme Broadcom a décidé de changer de modèle économique pour les hyperviseurs VMware et d’appliquer une politique tarifaire jugée prohibitive par le Cigref – qui a fait appel à l’Union européenne pour trouver une solution légale –, les entreprises chercheraient une porte de sortie.
Clément DavidCEO, Padok
Et les fournisseurs de cloud, notamment Google Cloud, sont sur le pas de tir pour accueillir les charges de travail associées. Ils pourraient accueillir ces workloads en mode « lift and shift », à l’aide d’un autre hyperviseur et/ou accompagner les clients dans une refactorisation de leurs applications.
Lors de Next, Google Cloud a pourtant annoncé un partenariat avec Broadcom pour faciliter les migrations des charges de travail VMware, puis, dans un avenir proche, proposer une portabilité des licences VMware Cloud Foundation vers GCP VMware Engine.
« Il y a d’un côté l’urgence provoquée par le changement de modèles tarifaires des produits VMware et de l’autre l’IA générative, considérée comme l’avenir, le train à ne pas rater », résume le CEO de Padok.