buchachon - Fotolia
Teradata se renforce dans le cloud, mais ne veut pas abandonner l'existant
Si Teradata renforce ses partenariats avec les principaux fournisseurs de cloud, il ne veut pas faire une croix sur plus de trente ans d’expérience sur site. L’éditeur veut surtout expliquer à ses clients les bénéfices d’un mode d’utilisation hybride.
Teradata a présenté il y a peu un renforcement de ses partenariats avec AWS, Microsoft Azure et Google Cloud (disponible en juillet 2020) pour proposer sa plateforme d’analytique Vantage chez les trois fournisseurs de cloud. L’éditeur américain a mis à jour sa solution pour s’intégrer avec les services de stockage objet, de data visualization, de traitement IA, ou encore d’ETL. Cela s’accompagne en principe de réponses aux requêtes améliorées, d’une compatibilité avec les services de sécurité d’Azure et AWS ainsi que l’ajout d’options de gestion et de monitoring depuis la console web « As a service ».
« Le défi c’est de faire tourner des milliers de modèles sur des milliards d’informations enclenchées dans des processus métiers. Nous voulons non seulement mettre à disposition Vantage dans le cloud, mais également de faire en sorte que ce composant soit interopérables avec d’autres services, à savoir ceux des fournisseurs de cloud et d’autres éditeurs comme DataBricks, Dataiku ou encore KNIME », assure Jean-Marc Bonnet directeur technique de Teradata France.
Un des clients vient d’illustrer cette volonté : le groupe Volkswagen. Le constructeur automobile allemand souhaite connecter 122 usines au cloud avec AWS, mais certaines données seront traitées avec la plateforme Vantage. Les data scientists du groupe automobile entendent utiliser les moteurs analytiques, algorithmiques (Advanced SQL Engine, ML Engine, Graph Engine, Spark, TensorFlow, etc.) et les environnements (R Studio, Jupyter, Teradata Studio et AppsCenter) fournis dans la plateforme pour affiner le contrôle qualité des soudures sur les véhicules.
Par ailleurs, l’éditeur a annoncé la disponibilité de services DRaaS (Disaster Recovery as a Service) basés sur l’infrastructure de sauvegarde et de backup déployé par les clients sur site de Teradata (BAR), mais sur Amazon S3 ou Azure Blob Storage. Un communiqué de presse précise que l’option est disponible pour les clients sur site qui utilisent Dell EMC Data Domain et Veritas NetBackup. Toutefois, l’éditeur proposait déjà MDR (Managed Disaster Recovery), une offre entièrement gérée et qui utilisent les mêmes services de stockage objet dans le cloud, pour les clients sur site ou hybride.
Mêler la modernité du cloud et les préceptes de l’existant
Teradata serait-il en train d’abandonner son activité historique, à savoir le développement et le déploiement d’entrepôts de données et de plateformes analytiques au sein d’appliances physiques ? Non, l’éditeur veut « mêler le meilleur des deux mondes », selon sa communication.
Ce renforcement des partenariats avec les principaux fournisseurs de cloud est « la confirmation du mouvement dans le cloud et la mise à disposition dans ces modes de déploiement proposés par AWS, Azure et Google de tout ce qu’on pouvait proposer – et que nous continuerons à proposer d’ailleurs – aux clients dans leur data center », déclare Jean-Marc Bonnet.
Jean-Marc Bonnet estime qu’il ne faut pas faire une croix sur l’existant. « Tout le monde n’est pas passé du site au cloud en un coup de cuillère à pot et certains ne veulent pas le faire », rappelle-t-il.
Le cloud doit tout de même apporter une facilité de gestion. Les modèles à la demande managés doivent permettent aux clients de se dégager un tant soit peu de la gestion de l’IT. « En revanche le travers, c’est que l’autoscaling est tellement facile à activer que l’on pourrait avoir des surprises en consultant la facture », note Jean-Marc Bonnet. « Nous proposons des garde-fous pour éviter ces dépassements. Tous les logiciels ne sont pas à égaux dans leur capacité à utiliser au maximum cette puissance de calcul disponible. […] Notre habitude des environnements massivement parallèles nous a permis d’optimiser la consommation de la puissance de calcul », vante-t-il.
Il rappelle que Teradata propose une appliance nommée Intelliflex qui doit offrir des capacités élastiques sur site. Elle est d’ailleurs nécessaire pour installer Vantage sur site. Dans le cloud, l’éditeur propose une offre possiblement « bimodale ». Les applications analytiques critiques en production doivent rester « as a service », avec le support et les environnements de développement peuvent être placés en mode « do it yourself », c’est-à-dire gérés dans le cloud par le client.
Par ailleurs, Jean-Marc Bonnet recommande à ses clients de contracter des capacités fixes et de réserver par exemple 30 % des crédits alloués à Teradata Vantage pour se parer d’une certaine flexibilité d’utilisation. « Il faut une bonne base capacitaire, moins cher, et du flexible. Si c’est un essai, cela peut être totalement à la demande », indique-t-il.
Outre ces considérations économiques, l’éditeur affirme sa volonté de proposer avec Vantage une solution capable de répondre simultanément « aux exigences de data management et d’analytiques » des grands comptes parce que « l’un ne va pas sans l’autre ».
Pour l’analytique, si Teradata souhaite que sa plateforme soit la plus complète possible, il mise principalement sur deux aspects. « Nous, nous concentrons sur les capacités de préparation des données, c’est-à-dire le traitement préalable de millions d’informations, et l’exécution des algorithmes au plus proche des données. Les utilisateurs peuvent sélectionner les outils et les plateformes de data science de leur choix, les nôtres ou ceux de partenaires, pour former leurs modèles ».
Pour le data management, Vantage s’appuie sur sa base de données qui doit offrir une couche basée sur la virtualisation de Teradata BYNET, la technologie d’interconnexion des nœuds au cœur de la plateforme massivement parallèle. Vantage propose surtout un environnement pour traiter et gérer des requêtes écrites dans différents langages : SQL, R, Scala et Python. En 2018, JavaScript et Go étaient également inscrits à la feuille de route.
Jean-Marc BonnetTeradata France
« On parle beaucoup d’IA, mais derrière le bel algorithme qui va résoudre la fraude ou l’attrition, si le data management n’est pas correctement géré, cela devient très compliqué », estime le dirigeant français.
La fédération de requêtes, à utiliser avec précaution
Par ailleurs, Teradata n’a pas attendu les fournisseurs de cloud pour proposer de la fédération de requêtes sur plusieurs bases de données avec QueryGrid. Ce moteur, disponible depuis 2014, a évolué pour interroger les informations sur site et dans le cloud. Le but analyser les données où elles sont. « Cela peut être Hadoop, Spark, MongoDB, etc ». Mais la fédération de requêtes « n’est pas magique ».
« La fédération a ses limites. Si elle est utilisée à mauvais escient, elle peut ne pas forcément répondre aux besoins et coûter très cher. Échanger des données d’un cloud à un autre, ce n’est pas anodin… Entrer des données dans le cloud cela ne coûte pas très cher, les sortir cela peut être douloureux », prévient le dirigeant.
« Il n’y a rien de plus efficace que d’avoir un même espace relationnelle et un même moteur massivement parallèle où je fais ma jointure. Y compris en termes économiques, puisque le traitement de la requête sera considérablement réduit », ajoute-t-il. Jean-Marc Bonnet défend ainsi des principes des architectures existantes que Teradata souhaite adapter et coupler aux environnements cloud.
De même, la fédération de requêtes serait plus efficace si elle est réalisée dans un seul environnement sur site ou dans le cloud. Selon le dirigeant, la proposition de Google Cloud avec BigQuery Omni pour effectuer des traitements multicloud a elle aussi ses limites. « Si l’on s’appuie uniquement sur un outil capable de connecter les données où qu’elles soient dans les clouds, c’est hyper dangereux, parce que cela pourrait laisser l’impression que l’on pourrait s’abstraire d’un effort de data management. Or, le gros problème des entreprises c’est le data management sans parler des expositions aux régulateurs, au RGPD, etc », avertit le directeur technique.
Jean-Marc BonnetTeradata France
Pour éliminer les silos, la centralisation des données serait essentielle. Les entrepôts de données peuvent donc être couplé avec le data lake. « Notre conviction, c’est qu’il y a 70 à 80 % des données qui méritent d’être centralisées auxquels s’ajoutent des satellites de données, qui doivent être interconnectés ». […] « Aujourd’hui certains clients traitent 70 à 90 millions de requêtes par jour. Tous leurs centres d’interaction sont convergents vers la plateforme Teradata », illustre Jean-Marc Bonnet.
Le cloud s’impose progressivement à Teradata
Malgré cette volonté de combiner les principes de l’existant avec la modernité du cloud, force est de constater que ce dernier prend une part de plus en plus importante dans l’activité de Teradata.
« Nous basculons progressivement de l’on premice vers le cloud. Nous avons de plus en plus de clients dans le cloud, mais nous n’avons pas la velléité d’adresser des centaines de milliers de clients dans le monde. Nous desservons 2500 clients et nous considérons que nous sommes pertinents pour ce panel de grands comptes ».
Les secteurs de la finance, des télécoms et les gouvernements restent les principaux clients de l’éditeur. Dans une moindre mesure, les industriels et les spécialistes du transport utilisent ses solutions de datawarehousing, de data management et d’analytique. En France, Air France, Bouygues Telecom, BNP Paribas, LCL ou encore Enedis sont quelques-uns de ceux-là.
En 2019, Teradata a généré 1,899 milliards de dollars contre 2,164 milliards en 2018, soit une baisse de 12 % de son chiffre d’affaires. Toutefois, ses revenus récurrents ont augmenté de 9 % pour s’établir à 1,427 milliards de dollars. Son nombre de clients dans le cloud aurait doublé au cours de l’année dernière, selon le rapport financier.