Pentaho s’aligne sur le Big Data
Mise à l’Open Source de ses connecteurs Big Data, choix de la licence Apache pour son moteur d’ETL, partenariat avec Cassandra et MapR... Pentaho, éditeur d’un plate-forme de BI Open Source, ajuste son éco-système au rythme du Big Data. Dave Nys, vice président EMEA et APAC et Cédric Fauvet, Responsable du développement de Pentaho en France, commentent cette stratégie.
Pour Pentaho, le Big Data est une extension de son modèle. Quatre mois après avoir décidé de renforcer sa présence en France (voir encadré) et de se rapprocher des clients français, l’éditeur de l’une des plates-formes de BI Open Source les plus intégrées du marché, est venu commenter les dernières annonces Big Data de la société. Dave Nys, vice président EMEA et APAC, de passage à Paris pour l’occasion et Cédric Fauvet, responsable du développement de Pentaho en France démontrent un pan de la stratégie Big Data de Pentaho.
Présent lors du premier congrès Big Data Paris, l’éditeur de BI mise gros sur le Big Data avec pour stratégie de lever les barrière d’entrée vers ce très tendance phénomène. Il faut dire que l’un des points forts de Pentaho est notamment de proposer une suite de Business Analytics très intégrée dont la particularité est de proposer un outil d’ETL (intégration de données). «L’ETL est un vrai ETL qui peut être acheté seul. Mais l’objectif pour Pentaho à l’origine est d’avoir un outil pour servir la BI et les outils analytiques de la bonne manière. Nous savons que dans les entreprises, nous avons affaire à la fameuse feuille Excel un peu partout, ainsi que des bases de données tant propriétaires qu’Open Source, et des données externes à l’entreprise. C’est pour ça que Pentaho dispose d’un ETL», commente Cédric Fauvet. Logique dès lors de s’intéresser au Big Data et aux traitements des données structurées, semi-structurées et non structurées.
La France, un axe de développement majeur |
Avec quelque 1 200 clients payants dans 185 pays, Pentaho compte augmenter sa base installée avec le marché français. «Un core-market», comme le souligne la société. Présente jusqu’alors sur le marché via des partenaires, la société a souhaité renforcer sa présence dans l’Hexagone en décembre dernier. «Nous nous sommes entourés de personnes en après-vente qui peuvent répondre en Français depuis la Belgique. D’autres m’assistent sur les questions marketing. Si aujourd’hui nous sommes petits, nous allons étoffer nos équipes au fil des mois. On avance un pas après l’autre», explique Cédric Fauvet, Business Intelligence Expert et l’un des responsables des activités françaises de la société. Pentaho s’appuie également sur son réseau de partenaires dont Smile, pour créer «une extension de sa force de vente au niveau local», commente Dave Nys, vice président EMEA et APAC. Actuellement, la France représente le 8e pays en terme de revenus. |
Ainsi fin janvier, le groupe a adapté sa stratégie. A clé, deux actions majeures : un changement de licence pour le moteur d’ETL et une mise en Open Source des connecteurs Big Data. Cédric fauvet explique : «l’objectif du changement de licence de Kettle était de pouvoir embarquer plus facilement au sein de projets Hadoop la brique d’intégration de données de Pentaho. Il s’agissait donc de mettre à niveau les licences. Mais au passage, les développements des connecteurs Big Data, initialement développés par Pentaho pour l’édition Entreprise, ont été reversés à la communauté. Ils sont désormais disponibles dans l’édition communautaire gratuitement». Un effort d’intégration stratégique qui vise donc à se rapprocher du monde Hadoop qui aujourd’hui semble donner le la dans le monde du Big Data.
Pourtant la raison est également d’ordre technique, nous rappelle Dave Nys, mettant en avant une forte proximité entre le framework Java Apache et son ETL maison. «La plupart des ETL du marché permettent d’injecter des données dans Hadoop et d’en extraire des données. Ce que nous proposons fonctionne au sein d’Hadoop et cette approche est différente. Nous faisons ainsi partie du cluster Hadoop. Vous pouvez créer un processus MapReduce dans l’éditeur graphique et l’exécuter dans le cluster. Avec les autres ETL, vous devez disposer d’un cluster et d’un stack important pour l’environnement ETL. Mais là, ETL et Hadoop ne font qu’un. Et c’est pour cela que nous nous sommes alignés sur la licence Apache.»
Accord avec MapR et Cassandra
Comme pour s’aligner sur les rouages et les standards du Big Data en somme. Et Pentaho compte bien profiter de son ADN Open Source pour accélérer ses développements dans le secteur. «Nous avons mis les connecteurs à l’Open Source car la communauté Apache Hadoop est énorme. Ce qui nous permet de leur livrer des outils dont ils ont besoin. Mais également, parce que les cas d’usage sont très récents [et rares, NDLR], les membres vont reverser du code à la communauté. Et en tant qu’éditeur, nous allons ainsi en bénéficier [...] Notre base évolue très rapidement et nous sommes encore une petite société. Nous n’avons pas 10 000 employés, mais nous bénéficions d’une communauté de 10 000 utilisateurs. C’est la même chose avec la communauté Datastax, Cassandra et MongoDB [avec qui la société a également noué un accord, NDLR]. Lorsqu’ils apportent une nouvelle version de leur technologie, notre communauté en profite et nous permet d’accélérer notre innovation », commente Dave Nys.
Mais ce n’est pas tout. Pentaho, en ligne avec sa stratégie, a également décidé de créer des liens plus étroits avec l’éditeur MapR, qui développe une déclinaison Hadoop. Un énième accord pour la société déjà liée à Cloudera et Hortonworks, deux piliers de la sphère Hadoop. « La façon de travailler avec Hadoop demeure très technique. Et nous menons une stratégie qui vise à lever les barrières d’entrée au Big Data, faciliter le travail des développeurs ETL et leur éviter de coder un job MapReduce en Java». Pentaho, via son ETL notamment, espère bien créer une synergie entre BI, analytique et Big Data.