OpenWorld 2016 : Oracle étend Intel RDT pour optimiser son SaaS
Dans le cadre du Projet Apollo, Oracle avait testé la technologie d'Intel de gestion dynamique du cache des serveurs dédiés à Java as a Service. Satisfait des résultats, RDT est étendu à tout le SaaS de l'éditeur pour booster ses performances.
Le Cloud est le sujet quasi exclusif de l'OpenWorld 2016, un évènement qui est également l'occasion pour Oracle de mettre en avant ses partenaires. Parmi eux, Intel est sans aucun doute un allié plus que privilégié, comme l'a confirmé une intervention de Diane Bryant.
La VP "Data Center Group" chez le fondeur est en effet revenue sur le Projet Apollo qui vise à "optimiser le Cloud d'Oracle" avec sa technologie RDT.
RDT - alias Resource Director Technology - est lié aux processeurs Xeon. Elle consiste à définir, dans le processeur, des règles de priorités pour hiérarchiser l'accès des VM et des applications à la mémoire cache d'un serveur.
Pour expliquer le concept, Diane Bryant utilise la métaphore du "voisin bruyant". En résumé, aujourd'hui, le cache est alloué selon le principe du premier arrivé, premier servi. Ce qui signifie que si la mémoire est grandement utilisée par une première application, la deuxième demande qui émane d'une autre tâche risque de ne pas pouvoir être servie correctement. Problématique si la deuxième application est critique et pas la première (le fameux voisin bruyant qui squatte les ressources).
RDT, au contraire, force la première application - si elle est définie comme moins prioritaire - à libérer la mémoire pour la seconde. Le "voisin bruyant" est alors cantonné à la part restante disponible des ressources, voire stoppé.
En revanche, si aucune autre application ne requiert la mémoire cache - ou si elle la libère après exécution - l'application non critique peut utiliser autant de mémoire cache qu'elle le souhaite ("quand la maison est vide, ce voisin peut faire autant de bruit qu'il veut sans déranger personne", continue Diane Bryant dans la métaphore).
Cette manière dynamique d'allouer le cache améliore la disponibilité, la réactivité et les temps de réponses des applications. L'objet même du Projet Apollo.
Le Cloud d'Oracle - qui pour mémoire ne s'appuie pas sur des architectures Sparc mais qui est motorisé par des serveurs embarquant des puces Intel Xeon E5 - bénéficie depuis un an de cette technologie qui a été mise en test sur une partie de son PaaS, pour l'administration de Java as a Service.
Les premiers résultats ayant été concluants, Oracle a décidé cette année d'étendre l'expérimentation à ses services de base de données hébergées (Database as a Service), de Big Data (Big Data as a Service) et plus largement à son offre d'applications métiers (SaaS).
Toutes ces offres Cloud ont vu - rien qu'avec cette allocation dynamique des ressources et cette priorisation des workloads - leurs performances "s'améliorer de manière fantastique", se félicite Thomas Kurian, Président d'Oracle en charge du développement produit. Pour le HCM par exemple, il revendique des "performances qui ont été multipliées par 1.8".
Au final, après "de multiples tests sur de multiples workloads", Oracle avance une amélioration globale des performances de 50%, des temps de réponses divisés par 4, le tout avec une variation des temps de réponses divisée par 3.
De son côté, Diane Bryant met en avant un autre avantage : des économies liées au fait que la mémoire est utilisée de manière optimale et qu'il n'y a "plus besoin de provisionner des ressources qui seront à moitié utilisées pour assurer un SLA au client".