Mahi - stock.adobe.com

Tibco se concentre désormais sur l’intégration et la virtualisation de données

Ayant perdu la main sur sa gamme analytique à la suite d’une récente réorganisation, l’éditeur a mis à jour ses plateformes de virtualisation et d’intégration de données avec des fonctionnalités multicloud et de change data capture en temps réel.

Tibco a dévoilé mardi des versions actualisées de ses plateformes de virtualisation et d’intégration des données.

Ces mises à jour interviennent environ six mois après que Vista Equity Partners, société mère de Tibco, a fusionné Tibco avec Citrix à la suite de l’acquisition de son acquisition par Vista en 2022.

Une fois Tibco et Citrix fusionnés, Vista a réorganisé Tibco à la fin de l’année 2022. Cette réorganisation s’est traduite par la création d’une société baptisée Cloud Software Group (CSG), dirigée par le PDG Tom Krause, qui inclut Tibco et se sépare des activités qui faisaient auparavant partie de Tibco.

Tibco, fondé en 1997, a acquis au cours des deux dernières décennies des plateformes analytiques telles que IBI (anciennement Information Builders), Spotfire et JasperSoft. Aujourd’hui, chacune de ces technologies constitue sa propre unité commerciale sous l’égide de CSG.

C’est l’inverse stratégie de Thoma Bravo qui a adoubé le rachat de Talend par Qlik dans le but de fournir une plateforme de traitement de données « bout en bout ».

Rendre visibles les données à l’ère du multicloud

Tibco, quant à lui, se concentre désormais davantage sur l’intégration et la virtualisation de données.

Outre la séparation de Spotfire, JasperSoft et IBI de Tibco, la création de CSG s’est accompagnée du licenciement d’environ 15 % de ses effectifs après la fusion de Citrix et Tibco.

Pour rappel, Tibco Data Virtualization est la plateforme de l’éditeur consacré à la gestion des données provenant de sources disparates dans un environnement unifié.

La dernière mise à jour en date mise sur une cartographie « intelligente » des données améliorée afin aider les organisations à unifier les données dispersées dans différents systèmes et à travers plusieurs clouds.

Plus précisément, une nouvelle interface utilisateur doit permettre aux clients d’accéder aux fonctionnalités de catalogage des données ainsi que contrôler l’accès des utilisateurs et d’autres mesures de sécurité.

Selon Doug Henschen, analyste chez Constellation Research, ces nouvelles fonctionnalités devraient profiter aux clients. Mais elles ne représentent pas un bond technologique significatif.

« Il s’agit d’améliorations du mapping des données et des visualisations, ainsi que des capacités de recherche et de sécurité à travers des sources virtualisées », résume Doug Henschen. « Je dirais qu’elles aident à faciliter et à accélérer la réunion des sources de données distribuées et à rendre ces données accessibles de manière sécurisée ».

Selon Rajeev Kozhikkattuthodi, responsable de la gestion des produits, de l’interface utilisateur et des alliances technologiques chez Tibco, il faut surtout retenir la possibilité de cartographier et gérer les données des clients à travers plusieurs clouds.

De fait, le cloud computing s’est révélé moins avantageux économiquement que les entreprises l’imaginaient. Les fournisseurs facturent leurs services à l’heure et/ou à l’usage, ce qui rend difficiles la planification et le suivi de coûts.

« Nous travaillons avec nos partenaires cloud pour nous assurer qu’à mesure que leurs plateformes deviennent les destinations par défaut pour accueillir les données de nos clients, nous disposons d’une infrastructure optimisée [...] pour de meilleures performances et un meilleur contrôle des coûts », assure Rajeev Kozhikkattuthodi.

Du batch au temps réel

Outre les nouvelles capacités de virtualisation, la mise à jour de Cloud Data Integration comprend des outils améliorés de transformation et de mappage des données, ainsi qu’une fonction de change data capture (CDC) en temps réel.

La CDC est le processus d’identification et de capture des modifications apportées aux données au sein d’une base de données et la fourniture d’informations sur ces modifications à d’autres systèmes dans un pipeline en temps réel afin de maintenir les données à jour.

Historiquement, Tibco s’est concentré sur l’intégration d’applications par lots, note M. Kozhikkattuthodi.

Ainsi, Tibco rassemble les deux fonctionnalités de CDC dans un environnement d’intégration de données unique, de sorte que les organisations n’aient pas à intégrer séparément les données en temps réel et les données par lots.

« Cette nouvelle fonctionnalité nous permet de faire le lien entre le monde temps réel et le monde batch », explique Rajeev Kozhikkattuthodi. « Nous considérons le CDC en temps réel comme un ingrédient clé. Nous permettons [aux clients] de simplifier le rapprochement des deux, de sorte que ce qui prenait des jours à se concrétiser sur un tableau de bord devienne exploitable en quelques secondes ».

Les outils améliorés de cartographie et de transformation des données, quant à eux, utilisent l’IA et l’apprentissage automatique pour fournir des recommandations automatisées. Les outils apprennent au fil du temps en se basant sur le comportement des utilisateurs et recommandent des actions concernant la manière de cartographier et de transformer les données.

« Les apports de l’IA et du machine learning dans des scénarios de virtualisation et d’intégration sont importants », estime de son côté Doug Henschen. « Le simple fait de voir et de comprendre ce qui est disponible et d’obtenir des recommandations sur les sources de données les mieux adaptées est un énorme atout pour la productivité ».

IA générative : Tibco joue la prudence

Depuis le début du mois de mai, Informatica, Snowflake et Alteryx ont tous dévoilé leur intention de doper leur plateforme à l’IA générative. Tableau, Qlik, ThoughtSpot et Microsoft Power BI préparent, eux aussi, des fonctionnalités similaires.

Par conséquent, l’absence de plan concret pour ajouter l’IA générative aux capacités existantes de Tibco est surprenante, selon Doug Henschen.

« Il y a une avalanche d’annonces visant à combiner la gestion de données et l’IA générative. Il est donc quelque peu étonnant de ne pas voir de mention de ces capacités dans cette version », souligne l’analyste.

Cependant, M. Henschen remarque que les usages de l’IA générative en lien avec les outils de gestion de données sont balbutiants. Tibco n’est donc pas encore à la traîne en la matière.

« Tibco a tout le temps de rattraper le train en marche et il pourra peut-être tirer des leçons des premières expériences afin d’exploiter au mieux la technologie », avance-t-il.

Ce n’est que partie remise. Tibco a bien l’intention d’ajouter des fonctions d’IA générative dans ses outils de gestion des données, selon M. Kozhikkattuthodi. C’est parce qu’il veut faire preuve de prudence qu’il ne se jette pas immédiatement dans l’arène, selon les propos du chief product officer qui – à l’instar des porte-parole de Qlik ou de SAS – mentionne des inquiétudes en matière de sécurité et de précision des grands modèles de langage.

« Nous sommes très enthousiastes quant au potentiel de l’IA générative », confirme-t-il. « Mais en même temps, nous mettons l’accent sur la confidentialité et la gouvernance et nous voulons que nos clients puissent contrôler leur destin ».

Tibco est un partenaire proche de Microsoft, qui est l’un des investisseurs importants d’OpenAI. Grâce à ce partenariat, Tibco peut potentiellement intégrer facilement ses produits à ChatGPT et aux autres modèles d’OpenAI. Selon le chief product officer, l’éditeur commencera par coupler le NLG au lignage sémantique, une fonction qui doit relier des objets techniques et métiers dans un modèle de données.

Pour autant, Tibco se concentre pour l’instant à fournir un environnement de gestion de données unifié à ses clients, lui qui par le passé a multiplié les solutions. Selon Rajeev Kozhikkattuthodi, les technologies cloud-native et l’apport d’outils pour les développeurs sont deux autres champs d’investissement important pour l’éditeur.

De son côté, Doug Henschen recommande à Tibco de faire de l’IA générative un élément clé sur sa feuille de route.

« L’IA générative a un potentiel énorme pour favoriser l’adoption d’outils d’intégration low-code/no-code par les fameux citizen developer. Il est donc important que les éditeurs se mettent à expérimenter la fusion de ces deux technologies », estime-t-il.

Pour approfondir sur Middleware et intégration de données