A grand renfort de dollars, IBM prend pied dans le nuage
Après un premier accord avec Google et six universités américaines sur le sujet, IBM poursuit ses investissements dans le "Cloud Computing". Big Blue va ainsi investir 360 M$ dans un premier datacenter à Raleigh pour appuyer ses offres d'informatique hébergée et construire un second centre de traitement à Tokyo. Le constructeur entend aussi investir 100 M$ en trois ans sur le sujet.
IBM a annoncé en fin de semaine dernière son intention de renforcer son infrastructure d'hébergement informatique, en construisant deux grands datacenter. Le premier aux Etats-Unis, le second au Japon. Ces deux nouveaux centres viendront rejoindre le réseau de "cloud computing" (littéralement informatique dans le nuage) qu'IBM est en train de mettre en place à travers la planète. En octobre dernier, la société et Google avait déjà annoncé une collaboration sur le sujet en mettant des ressources informatiques à disposition de six universités (Carnegie Mellon, MIT, Standford, Berkeley et les Universités du Maryland et de Washington). Dans ce cadre, Google avait annoncé la mise à disposition de 1 600 processeurs dans un centre informatique non précisé et IBM s'était engagé à fournir des ressources similaires.
Le "cloud" est aussi "green"
Cette fois-ci, le géant de l'informatique change d'échelle. Big Blue va ainsi investir près de 360 M$ en Caroline du Nord, sur son site de Research Triangle Park (RTP) près de Raleigh, pour construire un nouveau datacenter de grande taille, dont l'objectif officiel sera de fournir des services de Cloud Computing à ses clients (il est probable que dans un premier temps, il s'agira de bon vieil hébergement ou d'informatique à la demande).
Le nouveau centre utilisera la dernière génération de technologies afin de réduire sa consommation d'énergie (IBM estime qu'il sera 50% plus efficace que la moyenne des datacenters en service aujourd'hui). Il sera installé dans un bâtiment existant qui sera recyclé et réaménagé afin de limiter l'impact environnemental qu'aurait la construction d'un nouveau bâtiment.
Sogeti arrosé par le nuage
Parallèlement Big Blue va aussi mettre en service un second datacenter à Tokyo. Ce centre aura pour mission d'accompagner les clients de Big Blue dans la migration vers les environnements de Cloud Computing. Ce centre sera interconnecté avec celui de Raleigh ainsi qu'avec sept autre centres d'hébergements IBM dans le monde, dont ceux récemment ouverts à Dublin, Pékin et Johannesbourg. La firme indique notamment fournir des services de "nuage informatique" à Sogeti (filiale de Capgemini), à la ville de Wuxi en Chine, ainsi qu'à plusieurs institutions gouvernementales vietnamiennes.
Big Blue annonce enfin qu'il va investir plus de 100 M$ en recherche sur le Cloud Computing au cours des trois prochaines années et affecter à ces recherches plus de 200 chercheurs. Ces derniers pourront s'appuyer sur l'infrastructure en cours de construction pour leurs recherches.
Big Blue et Google ne sont pas les seuls à s'intéresser aux sujets du Cloud Computing et de la fourniture de capacité informatique à la demande. Amazon propose déjà un tel service avec EC2 (Elastic Computing Cloud) et plusieurs autres géants de l'informatique et des télécoms travaillent sur le sujet. Depuis deux ans, Sun fournit de la puissance de calcul à la demande à plusieurs clients avec son service Sun Grid (1$ par CPU et par heure). A plusieurs reprises, le constructeur a également indiqué son intention de fournir à l'avenir des services de type Cloud Computing.
Des architectures à revoir
HP, Intel et Yahoo viennent également d'annoncer une collaboration autour du Cloud Computing. Les trois partenaires vont construire une grille de test qui comprendra entre 1 000 et 4 000 cœurs processeurs répartis dans trois datacenters à Singapour, dans l'Illinois et à Karlsruhe, en Allemagne. Et c'est sans compter sur les géants des télécoms et de l'hébergement, comme AT&T, Equant, BT…
Reste qu'il y a un pas entre informatique à la demande, ce que de nombreux fournisseurs proposent, et Cloud Computing. Ce dernier suppose en effet une refonte en profondeur de la façon dont les applications sont conçues. Les applications en nuage sont en général "multi-tenant", ce qui signifie qu'une même instance applicative peut être utilisée simultanément par plusieurs clients tout en préservant l'intégrité et la sécurité des données de chacun. Un principe inauguré par les pionniers du Saas comme Salesforce ou Amazon.
Nuages et brouillard
Ces applications sont conçues pour fonctionner sur une grille de ressources virtualisées (sécurité, serveurs, stockage et réseau) et sont en général basées sur une architecture orientée service qui minimise les risques de pannes. Autant dire qu'on est loin de la réalité applicative actuelle et qu'il faudra encore pas mal d'années de recherche et de développement pour faire du "vrai" Cloud Computing".
Entretemps, les entreprises - à commencer par leur DSI - devront apprendre à séparer le bon grain de l'ivraie. Notamment à détecter ce qui relève vraiment du Cloud Computing et ce qui reste de la plus traditionnelle fourniture de ressources informatique à la demande. Le tout au milieu d'un opaque brouillard marketing.