L'infrastructure dans le nuage, un salut pour le Web 2.0
Second Life avait montré les limites du Web 2.0. Twitter les confirme. A l'heure où la popularité du service de microblogging grandit à pas de géant, Twitter souffre d'instabilités chroniques. Provoquant dans la foulée l'ire d'utilisateurs. Son salut : l'externalisation de son infrastructure.
Victime de son succès, Twitter doit sortir de son infrastructure ultra-centralisée. Après maintes coupures temporaires de service, l'outil de post communautaire court et rapide, nouvelle coqueluche du microblogging Web 2.0, alimente actuellement la polémique sur les blogs et communautés. Au coeur des débats, la structure informatique centralisée de la jeune start-up, qui n'offrirait pas (ou plus), selon certains experts, la capacité de maintenir à flot le service et de garantir à ses utilisateurs une disponibilité maximale.
Comme de nombreuses jeunes pousses, Twitter a axé son système sur une grille de serveurs localisés en interne et placés entre les seules mains de la société californienne. Ce qui pour Dave Winer, du site Scripting News, pose un véritable problème de pérénnité des messages postés, si le service tant convoité hoquetait accidentellement. Provoquant une irrémédiable perte des données. Pas assez « in the cloud », Twitter en somme.
Le précédent Second Life
Et pourtant, la difficulté était déjà connue. A la grande heure de Second Life – celle où tout le monde en parlait et celle où quelques investisseurs s'y intéressaient -, Linden Labs, son éditeur, avait été pointé du doigt par une communauté d'avatars 3D pour qui le monde virtuel était devenu une machine lucrative. Leur requête : décloisonner la grille (le « grid » Second Life) de façon à multiplier les instances de serveurs qui hébergent l'environnement et ainsi éviter toute perte de données en cas de plantage. Objectif : garantir la pérennité - là encore - de l'écosystème sur lequel certains usagers avaient bâti leur activité économique.
Pour Twitter, le débat se cristallise davantage sur l'ouverture des API (interfaces de développement), qui multiplient de facto l'accès aux services depuis des développements tiers. Conséquence : hausse pharaonique du nombre d'utilisateurs, pics de trafic, serveurs saturés, et enfin pannes.
Le "cloud" pour encaisser les pics de trafic
La solution pourrait alors venir d'une levée de fonds. Fin avril, News.com murmurait que Twitter avait levé entre 15 et 20 millions de dollars lors d'un troisième tour de table. Cette augmentation de capital pourrait financer un hébergement plus étendu, éparpillé à travers plusieurs centres de calculs.
A moins que Twitter ne préfère se tourner vers des services hébergées (cloud computing), qui ont éclos au fur et à mesure que les services Web 2.0 fleurissaient. Amazon, par exemple, commercialise une offre baptisée Elastic Compute Cloud (EC2), qui permet d'acheter de la puissance de calcul à la carte et de répondre aux fluctuations du trafic. Notamment aux pics de charge. De son coté, Google a récemment inauguré son App Engine.