polygraphus - Fotolia
IBM peaufine un stockage cognitif pour réduire le coût du Big Data
Les laboratoires de recherche d’IBM à Zurich travaillent à des systèmes de stockage capables d’apprendre à valoriser les données afin que celles-ci soient allouées au support le plus économique et le plus adapté à la politique du cycle de vie.
On parlera dès lors de « stockage cognitif ». IBM a en effet levé un coin du voile sur ce phénomène dont la vocation est de permettre aux systèmes IT de définir quelle information est la plule niveau d’importace d’une information et son degré de priorité ; de quoi alimenter particulièrement des scenarii de Big Data.
Selon Big Blue, ce stockage cognitif a le pouvoir de réduire les coûts en décidant automatiquement quelle donnée doit être stockée sur quelle classe de support, avec quelle niveau de protection et quelle politique de rétention appliquée en fonction des différentes classes de données.
Les labos d’IBM à Zurich ont dévoilé leur projet dans le magazine de l’IEEE nommé Computer. Dans cet article, IBM détaille par exemple quelles ont été les difficultés rencontrées dans le développement de système de stockage capable de prendre en compte de grandes quantités de données, mais tout en conservant les coûts bas. Les chercheurs y évoquent leurs travaux sur la Square Kilometre Array, un projet d’astronomie qui génère jusqu’à 1 pétaoctet de données par jour.
« La réponse évidente était de disposer de différents niveaux de stockage, de la Flash au stockage sur bande », explique Giovanni Cherubini, un chercheur IBM. « Mais nous pensions traiter les données comme peut le faire le cerveau humain, là où l’espace de stockage est limité et là où vous ne stockez pas toutes les informations. »
Selon le chercheur, le stockage cognitif vise à évaluer la valeur de la donnée et de la transcrire au stockage, avec la classe de support adéquate, le bon niveau de protection et ainsi de suite, le tout en fonction de l’importance de la donnée.
Une technologie auto-apprenante
Alors que le stockage comprend le support, la protection des données, les contrôles d’accès, etc, le stockage cognitif y ajoute une brique d’apprentissage qui interroge les métadonnées, analyse les patterns d’accès et est doué d’une fonction auto-apprenante qui créée de la connaissance à partir du contexte changeant de la donnée et de son usage afin de lui attribuer une valeur.
« Les administrateurs contribuent à alimenter le système d’apprentissage, à le former, en proposant des fichiers types et renseignant les types de données avec des valeurs différentes », explique Vinodh Venkatesan, chercheur chez IBM.
Cela place-t-il pour autant le stockage cognitif dans les entreprises ? Les données astronomiques, en dépit de leur gros volume, ne rassemblent que quelques types de données limités alors que les entreprises doivent batailler avec une typologie variée, des données transactionnelles aux emails, en passant les données issues des capteurs.
« Dans les entreprises, il existe des classes de données que l’on doit conserver et la valeur de celles-ci est en permanence élevée », assure Vinodh Venkatesan. « Mais cela représente une faible part. Le reste, la majorité, qui ne peut pas nécessairement être traité à la main, peut en revanche être pris en charge par le stockage cognitif – comme les Big Data, les capteurs.
Le projet d’IBM est encore au stade du prototype. Il sera exploité par le projet Square Kilometre Array pour du cache prédictif, grâce auquel les jeux de données que les chercheurs en astronomie téléchargeront d’un repository pourront être anticipés. Et ainsi leur faire gagner du temps en préparant cela à l’avance.
IBM est aussi à la recherche de partenaires pour tester le système en entreprise et le confronter à différents environnements. L’ensemble des fonctions pourraient à terme être intégré dans une solution globale ou accessible via le Cloud, conclut le chercheur.
Traduit et adapté par la rédaction
Pour approfondir sur Administration du stockage
-
HPC : une nouvelle analyse des données de Hubble révèle l’atmosphère de plusieurs exoplanètes
-
Explicabilité et fiabilité : les deux grands défis de l’informatique quantique
-
Les résultats d’IBM s’enlisent malgré les performances de Red Hat
-
IBM satellise un projet d’IA open source pour limiter les collisions spatiales