HDS embarque Pentaho dans une appliance analytique
Hitachi Data Systems a présenté une appliance hyper-convergée pour le Big Data, la HSP (Hyper Scale-Out Platform) 400, dont la vocation est de cibler les data lakes. Particularité : elle embarque Pentaho Enterprise Platform.
Hitachi Data Systems (HDS) continue de distiller les outils de Pentaho, le spécialiste de BI Open Source racheté en 2015. Le Japonais a en effet présenté une appliance Big Data qui embarque Pentaho Enterprise Platform, associée aux composants prêt à l’emploi de compute, de stockage et de virtualisation.
La HSP 400 est livrée pré-configurée dans un rack 2U avec la plateforme de BI et permet d’ingérer des volumes de données issues de sources hétérogènes, en de multiples formats, pour au final y opérer des traitements analytiques. HDS y voit un cas d’usage type : les entreprises qui justement souhaitent agréger et prendre en compte différentes catégories de jeux de données afin d’en extraire des patterns spécifiques. Le tout opérer en temps réel.
Cette appliance permet pour cela « d’unifier tous les jeux de données disparates et toutes les workloads » d’une entreprise, y compris celles en internes générées par les applications patrimoniales et les entrepôts de données. Et de les fédérer au sein de cette solution. La vocation première est donc bien « d’éliminer la complexité » des déploiements, assure encore le Japonais dans un communiqué.
En clair, Il s’agit ici d’industrialiser les déploiements de Pentaho. Un point qu’Hitachi avait évoqué lors du rachat de Pentaho. Sa volonté était d’intégrer Pentaho au savoir-faire de la marque, à savoir les appliances de stockage par exemple.
L’idée derrière HSP est ainsi de conjuguer les briques nécessaires pour accélérer la mise en place de processus analytiques. Elle associe le moteur d’intégration de données de Pentaho au serveur analytique de la solution Open Source pour favoriser des opérations dites de data blending.
HDS affirme également avoir développé une console d’administration centralisée permettant de gérer les environnements virtualisés Hadoop ou encore Spark, HDP (Hortonwork Data Platform) par exemple. Une API Restful se connecte aussi aux outils de management d’Hadoop.
Pour faciliter le déploiement, un système de templates de machine virtuelle a été mis en place, avec des pré-configurations de ressources.
Un dimensionnement de type scale-out
Logiquement, les secteurs des banques (pour la détection de fraudes par exemple) et le retail (pour identifier des comportements d’achat et des offres adaptés) sont des cibles de choix pour HDS. Le groupe y voit aussi un intérêt pour le très tendance Internet des objets.
L’appliance HSP 400 est proposée avec deux CPU Intel à 12 cœurs et 12 disques SAS de 6 To. Selon Bob Plumridge, CTO de HDS, des demandes ont été formulées pour y intégrer du stockage Flash, mais cela ne sera ajouté pas avant la mi-2016. L’ajout de la technologie formera ainsi un second modèle de l’appliance.
Les nœuds du HSP 400 peuvent aussi être connectés pour créer des clusters de 20 appliances et proposés une capacité de 1,4 Po et 240 cœurs. Et ce, sur un mode de dimensionnement scale-out.
Pour approfondir sur Outils décisionnels et analytiques
-
IA : DataStax lance une base vectorielle prête à l’emploi pour le RAG
-
Big Data et Machine Learning : comment faire de la vraie hyper personnalisation dans l’e-commerce ?
-
Quelles différences entre une CDP et une DMP dans une stratégie marketing ?
-
Virtualisation : quelles sont les limites pour étendre une VM ?