Pentaho adapte sa plate-forme analytique au Big Data

Pentaho a voulu tailler sur mesure la version 5.0 de sa plate-forme Business Analytics pour le Big Data en y greffant une couche dédiée. Cette version renferme également des tableaux de bord et une interface revisitée grâce à Webdetails, une société rachetée en avril dernier.

 

Pentaho veut lui aussi habiller ses solutions de BI à la sauce très tendance du Big Data. L’éditeur a ainsi annoncé aujourd'hui la version 5.0 de sa plate-forme analytique Pentaho Business Analytics, dont l’objectif est de permettre aux entreprises de distiller auprès de leurs utilisateurs métiers des capacités d’analyses des données en y intégrant les Big Data.

«L’idée, résume Davy Nys, vice-président EMEA de Pentaho, lors d’un entretien avec la rédaction, est d’avoir les bons ingrédients pour réussir sa recette de cuisine», pour illustrer les capacités de la plate-forme. Au coeur de la stratégie de Pentaho figure la vonlonté d'associer les données clés et stratégiques de l’entreprise à celles éparpillées  - Big data - en provenance de sources multiples, hébergées dans des environnements hétérogènes. Et d’en simplifier ainsi l’analyse.

Pour cela, l'éditeur s’appuie notamment sur son concept Adaptive Big Data Layer, présenté notamment lors du dernier Hadoop Summit. «Il s’agit d’une couche intermédiaire entre toutes les différentes sources de données et notre moteur d'intégration de données», explique-t-il. Cette couche, qui s'apparente à une série de plug-ins, se connecte à de nombreux environnements Big Data du monde NoSQL et Hadoop, sans avoir à modifier une ligne de code et avec très peu de configuration. C'est là que se situe la couche "adaptive". Les distributions de Cloudera, MapR et HortonWorks sont notamment supportées pour l'environnement Hadoop. De même que MongoDB et Cassandra pour le monde NoSQL. Pentaho a également noué un accord avec Splunk pour gérer les données machine.

L’éditeur a également poussé plus loin le niveau d’intégration avec MongoDB «en supportant désormais le framework d'agrégration de la base de données NoSQL, la possibilité de découvrir les metadonnées des documents, ainsi que les profils», assure Davy Nys. Une façon d’accélérer l’accès aux données contenues dans la base NoSQL et les requêtes.

Derrière ce concept, figure la volonté de relier les données stratégiques de l’entreprise au Big Data et de les croiser à la source, souligne Davy Nys. «Nous ne pouvons pas réaliser des analyses de données avec des silos. C'est important parce que les entreprises ont besoin également de contexte, par exemple en s'appuyant sur des données piochées dans les réseaux sociaux. Mais observer ces données n'a vraiment de l'intérêt que si on les analyse dans le contexte de l'entreprise. Vous avez donc besoin de conjuguer les données de l'entreprise à ces autres sources de données pour avoir une vision panoramique de votre environnement », décrypte-t-il.

Intégration de méthodes de visualisation de Webdetails

Autre point clé de la nouvelle plate-forme, son interface utilisateur. Pentaho affirme avoir repensé son interface à des fins de simplification. Et ce, pour répondre aux exigences des utilisateurs métiers. Pour cela, Pentaho s’est adossé à Webdetails, une société portugaise rachetée en avril dernier et spécialisée dans le développement d’interfaces graphiques. «Webdetails est pour la première fois intégré et nous à aider à simplifier et rationaliser notre interface et notre approche", commente Davy Nys. Tableaux de bord et visualisation des données ont notamment été revus.

La console d’administration profite elle aussi d’une interface remaniée et inclut la possibilité de configurer et de gérer les différents niveaux de sécurité, les licences ainsi que les serveurs. Le redémarrage et la restauration des tâches ainsi que l'équilibrage de charge ont également été ajoutés aux fonctions d’administration.

Evidemment, cette idée de simplifier n’est pas nouvelle dans le monde de l’analytique des Big Data. Un monde qui attend toujours l’arrivée en nombre de «data scientists» et dont les solutions restent encore très complexes à déployer dans des environnements d’entreprise. Les éditeurs investissent donc dans des couches d’abstractions pour gommer cette complexité. Informatica par exemple, dont le dernier concept Vibe contribue notamment à répondre à ce besoin. Ou encore Teradata. L’idée est globalement de fondre dans un tout cohérent les connecteurs aux multiples sources de données et les technologies spécifiques pour les exploiter,et ce en rendant l'ensemble simple à utiliser pour l’utilisateur.
«Nous souhaitons abaisser les barrières à l'adoption du Big Data et garantir que l'on peut créer de la valeur avec cette technologie.[...] Les solutions sont aujourd'hui difficiles à implémenter. Il est encore nécessaire d'avoir des compétences particulières. Et donc, vous devez être patient si aujourd'hui vous souhaitez tirer profit du Big Data», conclut Day Nys.

Pour approfondir sur Big Data et Data lake