par
Publié le: 23 févr. 2012
Quand Hasso Plattner, le co-fondateur de SAP, a commencé à évoquer les travaux sur le In-Memory Computing menés au sein de l’institut de recherche qu’il finance, c’est le scepticisme qui a accueilli ses déclarations. Quand on y repense aujourd’hui, ce n’était que logique. Car
la trajectoire que dessinait alors Hasso Plattner bousculait des certitudes ancrées dans les directions informatiques des entreprises depuis des années, à commencer par celle voulant que l’informatique décisionnelle, celle des rapports et autres tableaux de bord, soit forcément distincte du monde transactionnel, où l’entreprise enregistre ses transactions au fil de ses activités. Cette séparation des deux univers se traduit par une complexité des sous-jacents techniques : ETL pour extraire les données, datawarehouse (ou entrepôt de données, NDLR) pour les stocker, datamarts, agrégats… L’industrie a rivalisé d’ingéniosité pour rendre le décisionnel suffisamment réactif aux besoins des entreprises. D’emblée, c’est tout cet édifice que Hasso Plattner a voulu remettre en cause. Dès 2009, dans un
livre blanc fondateur au titre sans ambiguïté («
Une approche commune pour OLTP et OLAP en utilisant une base de données In-Memory en colonnes« ), il expliquait : « J’ai toujours pensé que l’arrivée des solutions de datawehouse n’était qu’un compromis. La flexibilité et la vitesse que nous avons gagnées l’ont été au prix d’un surcroît de gestion en extraction et chargement de données, ainsi que de contrôles accrus en matière de redondance ». L’objectif était donc tracé ; son caractère radical ne pouvait que susciter le scepticisme évoqué au début de mon billet. Cet objectif est désormais à portée de main. La curiosité, l’intérêt ont supplanté l’incrédulité. Curiosité et intérêt des métiers, mais aussi de la DSI.
lire la suite sur InnoverMaintenant.fr...
Pour approfondir sur Editeurs