IBM construit un super espace de stockage de 120 peta-octets
En faisant travailler de concert 200 000 disques durs, au-delà de l’exploit technique, IBM pave le chemin pour les besoins informatiques de demain, notamment dans le cloud computing.
Le centre de recherche d’IBM à Almaden est en train de construire, pour un client voulant rester anonyme, un espace de stockage d’une capacité encore jamais égalée. En effet, le constructeur assemble 200 000 disques durs classiques pour qu’ils fonctionnent comme un seul espace de stockage d’une capacité totale de 120 peta-octets, soit l’équivalent d’un billion de fichiers (soit mille fois mille millions) ou 60 fois le stockage de l’ensemble des Pages Web mondial). Cette capacité de stockage servira à faire des simulations complexes dans des conditions proches du monde réel. Pour arriver à faire travailler ces disques comme un seul, IBM utilise GPFS (General Parallel File System), le système de fichiers utilisé dans ses supercalculateurs les plus récents comme Watson, l'ordinateur ayant participé (et remporté) au jeu télévisé Jeopardy en début d'année. Le simple fait de suivre les noms, les types et les attributs des fichiers stockés dans ce système prendra environ 2 peta-octets de stockage. Comme pour Watson, cet espace de stockage reste pour l’instant au niveau de la prouesse technique, mais IBM envisage déjà un usage commercial.
Un pas de plus vers le stream computing
Pour Bruce Hillsberg, directeur des recherches stockage chez IBM, « cette capacité de 120 peta-octets est aux frontières de la folie pour l’instant, mais d’ici quelques années, elle pourrait être dans la moyenne de ce que les systèmes de cloud ont besoin ». C’est une nouvelle brique après le lancement d’InfoSphere Stream pour le développement du Stream Computing. Par ce terme, IBM désigne la capacité des ordinateurs à collecter, trier et analyser des données brutes ou filtrées, sans qu’on leur indiquent particulièrement lesquelles entrent dans le champs d’analyse. Très utile pour des simulations complexes d’analyse en temps réels (calculs de risques financiers tenant compte des moindres rumeurs de l’actualité, simulations météo capable de penser aux conséquences d’un battement d’ailes de papillon à Bangkok sur le climat de Mexico, etc), ce stream computing nécessitera également des capacités de stockage importantes. 120 peta-octets d’espaces disques seront-ils suffisants ?