Anna Khomulo - Fotolia
Google appelle à repenser les disques durs traditionnels pour les datacenters
Une refonte radicale des disques 3.5 pouces permettrait d’améliorer le TCO et d’augmenter les performances des centres de données face aux défis du Big Data. Google lance quelques pistes et invite l’écosystème IT à donner ses idées.
Google voudrait que l’industrie et les communautés scientifiques et universitaires se penchent sur la création d’une nouvelle génération de disques durs. D’après le géant du Cloud, une refonte de ces disques devient une option à envisager au regard des petabytes de données uploadées chaque jour par les utilisateurs de services hébergés (SaaS, PaaS ou IaaS).
Google ne se contente pas de vœux pieux puisqu’il vient de publier un livre blanc (pdf) dans lequel il propose plusieurs options. La principale est d’abandonner purement et simplement le « form factor » des 3.5 pouces actuels.
« La forme de ces disques a été choisie pour des raisons historiques – en fait elle a été héritée des disquettes. Une forme alternative permettrait d’améliorer le Total Cost of Ownership », écrivent les deux co-auteurs du document, Eric Brewer et Lawrence Ying qui ont bien conscience qu’un tel changement ne se fera ni rapidement, ni sous la seule impulsion de Google.
« Changer cette forme est un processus qui se fera sur le long-terme, et qui exige des discussions avec de nombreux acteurs. Mais nous pensons que cela en vaut aujourd’hui la peine. […] Nous pourrions déterminer nous-mêmes nos propres specs pour les datacenters de Google, mais nous pensons que la problématique dépasse largement notre cas particulier. Et que la solution, si elle est développée en collaboration, bénéficiera encore plus à l’ensemble du secteur ».
Première piste de réflexion, Google propose que les boitiers soient plus hauts. « Les disques actuelles ont une hauteur fixe, et relativement petite : typiquement 1 pouce pour les 3.5 pouces et 16 mm pour les 2.5 pouces. Une hauteur plus grande permettrait de caser plus de plateaux, ce qui augmenterait d’autant les capacités de stockage et qui amortirait les coûts de packaging du HDD, des circuits imprimés et de la mécanique embarquée », avance le livre blanc.
Résultat, le prix par GB pourrait être réduit drastiquement.
Toujours dans cette même optique, les deux ingénieurs imagine qu’il devrait être possible de rendre plus flexibles les capacités des disques rotatifs pour mieux les adapter aux besoins particuliers (et donc, là encore, améliorer le TCO).
Troisième piste de réflexion, Google propose d’externaliser la mémoire cache du disque vers l’architecture hôte pour, selon les auteurs, réduire les coûts et accroitre les performances.
En parallèle de ces propositions, Eric Brewer et Lawrence Ying expliquent que la Flash (SSD) ne résoudra pas – ou en tout cas pas à elle seule – les problématiques de stockage des megadonnées. « Le coût par GB reste trop élevé et, plus important, les taux de croissance du ratio capacité/prix des deux technologies (NDR : SSD et HDD à disques rotatifs) sont semblables ou presque ».
Pas d’autres solutions, donc, que de repenser ces disques durs traditionnels. « Les disques sont l’élément central du stockage des plateformes Cloud, dont la demande de stockage dépasse de loin les innovations apportées à ces disques. Cette demande exponentielle (NDR : chaque minutes, 400 heures de vidéos sont mises en ligne sur Youtube) implique que la plus grande partie des disques durs du futur se trouveront dans les datacenters et que la gamme de ces disques sera plus vaste ».
Et de conclure, « nous espérons que ceci est le début d’une nouvelle ère pour les disques durs dans les datacenters et la première contribution à une large discussion ouverte sur le sujet. Nos idées ne sont que quelques pistes. Nous sommes persuadés que la solution au problème viendra des efforts combinés de l’industrie, des universitaires, et des clients gros consommateurs de stockage ».