alphaspirit - Fotolia
Analytique : face à la concurrence, Google Cloud renforce son offre
Le fournisseur officialise la disponibilité générale de BigLake et d’Analytics Hub et présente Log Analytics. Selon les analystes, Google a désormais les clés pour populariser son catalogue de services consacré à la gestion de données.
En prélude de sa conférence virtuelle du 11 octobre, Google a dévoilé la semaine dernière dans un billet de blog la disponibilité générale de BigLake et d’Analytics Hub, respectivement en préversion depuis avril 2022 et décembre 2021. Le géant du cloud a également introduit la prédisponibilité de Log Analytics dans Cloud Logging.
Google a déclaré que plus de 100 000 professionnels ont essayé BigQuery cette année, ce qui représente une croissance de près de 150 % d’une année sur l’autre. Toutefois, le fournisseur n’a pas précisé combien de ces utilisateurs se sont engagés à utiliser ses services de traitement de données.
C’est ce à quoi les ajouts d’Analytics Hub, de BigLake et de Log Analytics semblent répondre, selon Donald Farmer, fondateur et directeur de TreeHive Strategy.
« Je pense qu’il s’agit d’une initiative importante pour faire de Google Cloud Platform une plateforme analytique suffisamment robuste pour que les professionnels s’y engagent vraiment », déclare l’analyste. « Les gens avec qui je discute affirment qu’ils utilisent Google Cloud, mais qu’ils n’y déploient pas des projets critiques. C’est une tentative pour changer cela ».
En outre, Donald Farmer rappelle le lancement par Google, en juillet, d’un service pub/sub attenant à BigQuery. Celui-ci pourrait potentiellement attirer davantage d’utilisateurs.
La terminologie « pub/sub » désigne le processus par lequel des services « éditeurs » envoient des événements à un broker sans tenir compte de la manière dont ces événements seront traités. Ces événements sont ensuite transmis à un ou des « abonnés » qui, eux, lanceront un traitement en réaction à cet envoi. Avec le service pub/sub, les utilisateurs peuvent ingérer des données en continu dans BigQuery sans payer de supplément ; ils ne paient que pour le calcul qu’ils utilisent pour extraire, charger et transformer leurs données.
Trois services aux capacités « illimitées »…
Selon Bruno Aziza, responsable des données et de l’analytique chez Google Cloud et auteur du billet de blog dévoilant les nouveaux outils, ces derniers visent à surmonter les obstacles qui limitent généralement ce que les organisations sont en mesure de faire avec les données.
« [Nos outils] s’attaquent aux données et aux charges de travail illimitées », vante-t-il. « Le monde des données est fait de limites. Les limites peuvent être la capacité, le budget, l’accès aux données. Mais lorsque davantage de personnes s’engagent avec davantage de capacités, cela ne peut que conduire à davantage d’innovation ».
Gerrit Kazmaier, vice-président et directeur général base de données, analytique et Looker chez Google, avait tenu à quelques mots près le même discours, lors de la présentation de BigLake en avril dernier.
Google a dévoilé son Analytics Hub en mai 2021. Il s’agit d’un service de partage de données où les utilisateurs de GCP peuvent accéder « en toute sécurité » à des actifs analytiques, tels que des rapports, des tableaux de bord et des modèles de données, à travers leur organisation. LeMagIT avait déjà expliqué les principaux mécanismes de ce service.
Analytics Hub réside dans BigQuery, l’entrepôt de données en cloud de Google.
Les clients qui souhaitent tester Analytics Hub avant de s’engager peuvent l’utiliser gratuitement avec le bac à sable de BigQuery. S’ils souhaitent faire de l’outil un élément permanent de leur écosystème analytique, la fonctionnalité est alors facturée dans leur forfait BigQuery Enterprise.
Bien que Google n’ait pas communiqué d’informations spécifiques sur les prix, le fournisseur vante un système de tarification basé sur l’utilisation et des remises à l’engagement. Il propose un estimateur de prix pour divers services de cloud computing basé sur l’utilisation, ou des devis personnalisés effectués par des commerciaux.
Quant à BigLake, il doit permettre aux utilisateurs de Google de créer des lacs de données multicloud qui éliminent la nécessité de déplacer les données pour les interroger et les analyser. Parallèlement, il inclut des contrôles de sécurité qui peuvent être configurés en un seul endroit par les administrateurs système et appliqués partout.
Selon Bruno Aziza, l’outil est passé en disponibilité générale plus rapidement que la plupart des autres produits Google, en raison de la demande des clients.
Enfin, Log Analytics dans Cloud Logging – un service de gestion des logs en temps réel entièrement géré par Google qui permet le stockage, la recherche, l’analyse et l’alerte – a pour but d’aider les entreprises à obtenir des indicateurs concernant les ressources cloud et les applications qu’elles déploient en production.
En utilisant BigQuery SQL, les clients qui stockent des données générées par des serveurs, des capteurs et d’autres dispositifs peuvent analyser ces données de la même manière qu’ils analysent d’autres données métiers. Cette fonctionnalité semble taillée pour la supervision des charges de travail, mais elle pourrait préfigurer de nouvelles capacités d’analyses pour les équipes de cybersécurité.
« Log Analytics ... rend disponible cette idée de charges de travail illimitées », insiste Bruno Aziza. « Les données illimitées, c’est aussi Analytics Hub et BigLake. Si vous croyez que les données devraient faire parties d’un écosystème, alors nous devrions vous permettre de profiter de cet écosystème et de réduire les coûts ».
…Pour de nouveaux usagers
Pendant ce temps, Mike Leone -- analyste chez Enterprise Strategy Group [propriété de Techtarget, également propriétaire du MagIT] -- considère qu’Analytics Hub et BigLake pourraient conduire à de meilleures prises de décision grâce à l’accent mis sur le partage et l’accès aux données.
« Être capable de partager des données en toute sécurité à l’échelle est essentiel », affirme-t-il. « Sachant que les données sont probablement stockées à différents endroits, l’idée d’une plateforme convergente qui combine les données distribuées provenant d’entrepôts et de lacs de données, quel que soit leur format, contribue grandement à garantir de meilleurs résultats ».
De même, Donald Farmer remarque qu’Analytics Hub pourrait être d’une grande utilité pour les nouveaux clients de Google Cloud. Il pourrait aussi inciter les prospects du géant de la pub devenu fournisseur cloud à s’engager et à devenir des clients payants.
« Google Cloud se positionne désormais comme un fournisseur d’une plateforme de partage de données », pointe l’analyste. « Snowflake a connu un grand succès en la matière », dit-il en évoquant le fournisseur d’un data warehouse multicloud concurrent.
« Par défaut, Google dispose d’une meilleure technologie de partage des données. Cependant, il n’avait pas encore construit les outils nécessaires pour la rendre pratique », assure Donald Farmer. « Analytics Hub est une tentative d’apposer un front-end sur une fonctionnalité existante et déjà efficace ».
Rattraper la concurrence
Selon M. Farmer, si ces nouvelles fonctionnalités sont susceptibles de favoriser une plus grande adoption, elles représentent également des mesures prises par Google pour améliorer l’expérience de ses clients spécialisés dans la gestion de données et l’analytique.
Comme le suggère un nom tel que BigQuery, Google s’est concentré sur la mise à l’échelle de son entrepôt de données. Et selon Donald Farmer, BigQuery s’avère efficace pour interroger de grandes quantités de données.
Mais la plupart des data analysts n’interrogent pas de gros volumes de données, rappelle-t-il. Au lieu de cela, ils effectuent généralement une série progressive de petites requêtes, en posant une question à leurs données, puis en posant d’autres jusqu’à produire des indicateurs pertinents.
Donald FarmerAnalyste, TreeHive Strategy
« Cette expérience d’exploration des données n’a pas été bonne sur BigQuery et a même été très coûteuse », signale le directeur de Treehive Strategy. « Maintenant, ils [les responsables de Google Cloud] font vraiment attention à cela et c’est là qu’ils rattrapent leur retard. Ils rattrapent leur retard en matière d’expérience analytique, alors qu’auparavant, ils se concentraient seulement sur la montée à l’échelle. Ils sont passés à côté de l’expérience réelle de l’analytique ».
Désormais que Google a ajouté des outils pour améliorer l’expérience d’interrogation et d’analytique, l’analyste espère que GCP intègre mieux son tableur Google Sheets avec le reste de ses outils d’analytiques, de la même manière que Microsoft a intégré Power BI avec Excel.
De même, Mike Leone aimerait voir Google améliorer l’intégration de ses propres outils.
Certains chevauchements subsistent entre certaines des offres de Google résultant d’acquisitions, Au fur et à mesure que ces doublons seront éliminés, le portefeuille analytique de GCP deviendra probablement plus cohérent, anticipe-t-il.
« Il a fallu un certain temps pour prendre en compte correctement les chevauchements, [mais] je m’attends à voir davantage d’intégrations et de consolidations de services à court terme afin de garantir que les entreprises en aient pour leur argent tout en leur permettant d’évoluer au rythme de leurs activités », précise-t-il.
De son côté, Google prévoit de lancer d’autres services de traitements de données et d’analytiques lors de la conférence Google Cloud Next prévue le 11 octobre.