Fotolia
Quel futur pour les OS serveur ?
Cet article observe l’évolution des OS serveurs et de leur passage vers le Cloud
Microsoft vient de sortir Windows Server 2016. Linux de célébrer son 25e anniversaire. IBM propose un OS pour ses mainframes et son architecture Power, Oracle Solaris. Et tout cela ne forme qu’une infime partie émergée de l’iceberg, si l’on considère attentivement le marché. Mais finalement, quel est aujourd’hui le rôle d’un OS ?
Si l’on revient aux premières lueurs des serveurs, le système à l’époque était plus simple : un BIOS pour le démarrage, un OS pour provisionner les services de base, puis des applications pour supporter les processus.
Concentrons-nous sur les architectures Intel, les autres systèmes ont des approches quelque peu différentes. Le BIOS a certes évolué vers l’UEFI (Unified Extensible Firmware Interface), mais est toujours un maillon de la chaîne. Sans ces processus de base, le hardware ne pourrait pas se configurer correctement et supporter toutes applications qui s’y repose.
Il existe aussi des hyperviseurs, comme ESX, Hyper-V ou KVM, côté virtualisation. Mais l’OS est encore installé d’une façon ou d’une autre au-dessus de l’hyperviseur. Mais ce n’est pas tout : serveur d’applications, middleware, micro-services, machines virtuelles, conteneurs, bases de données, sécurité, plateforme Cloud (comme OpenStack) – et nous pouvons toujours mettre notre bonne vieille application au-dessus de technologies bien plus complexes.
Alors quel est aujourd’hui le rôle de l’OS ? Dans le passé, ils en avaient plusieurs. Ils créaient les interfaces de base entre le serveur et les autres systèmes, comme le stockage, le réseau et les autres périphériques. Ils fournissaient également des bibliothèques clés, comme les pilotes pour faire fonctionner des équipements numériques.
Mais comme le monde de l’IT a fortement évolué, l’OS a lui-aussi pris de l’embonpoint pour être capable de gérer de nouveaux environnements.
Une stack complexe
L’OS est ainsi devenu un autre maillon d’une longue chaîne très complexe. Et il est possible qu’il soit le maillon le plus faible. Le monde évoluant vers l’abstraction, le virtuel et le software defined, ne devrions-nous pas avoir un OS directement déployé dans le Cloud plutôt qu’un OS connecté à un Cloud ?
Considérons certains OS, comme RIOT, Contiki et eCOS qui ont été allégés pour trouver leur place dans des terminaux embarqués, ou d’autres encore comme RancherOS, le projet Atomic, ou CoreOS, dédiés aux conteneurs. VMware Photon se présente comme un OS poids plume de nouvelle génération.
Certains signes montrent justement que le monde des OS gonflés à bloc tend à se réduire. Windows Server 2016 adopte de plus en plus le style d’une plateforme Cloud, empruntant beaucoup à Azure et se parant d’un concept de « nano server » - une version concentrée du Windows Server ajustée justement pour exécuter des conteneurs.
De nombreuses variantes de Linux deviennent, dans le même ordre d’idée, des bootstraps pour OpenStack.
Tout cela représente certes une avancée, mais on peut aller encore plus loin. Pour Quocirca, la prochaine génération d’OS sera celle des plateformes Cloud.
En concentrant les fonctions, les performances peuvent être améliorées. Les VM et les conteneurs peuvent mieux dialoguer avec la plateforme sous-jacente, sans avoir à emprunter la voie de plusieurs couches d’abstraction.
L’administration devient aussi plus simple. Au lieu d’avoir à gérer plusieurs couches, une plateforme unifiée simplifie l’environnement. La mise à jour est aussi plus simple. Et les fonctions peuvent être standardisées. La probabilité de casser un système en mettant à jour une unique couche est plus faible. Car après tout, le Cloud représente la couche d’abstraction ultime.
En fonctionnant sur du hardware standard, la mutualisation des ressources est aussi plus facile à mettre en place.
Une résilience plus aboutie
Avec des éléments hardware autonomes, et un OS Cloud qui prend le relai, le concept global - faire fonctionner une plateforme Cloud - est aussi plus simple. Ces connexions retirées, la résilience ainsi que la disponibilité en sont optimisées. En résulte aussi une plus grande standardisation dans la façon de gérer les workloads. Si le lien avec le hardware est direct, la possibilité d’abstraction promise par le software-defined Datacenter peut enfin tenir ses promesses.
Mais il existe alors la nécessité de disposer d’un hardware intelligent. Comme l’a écrit Quocirca il y a deux ans, une approche software defined du hardware est pertinente, mais cela nécessite qu’il puisse opérer à un niveau très standardisé.
Une plateforme Cloud
Toutefois, plaçons l’intelligence principale de la plateforme dans la plateforme Cloud en elle-même. Créons une fabrique plus qu’une stack complexe. Une fabrique qui fonctionne de pair avec les ressources hardware, et fait table rase des couches qui freinent les performances. Celles de systèmes qui ont certes grandi mais ont tenté d’absorber des idées nouvelles sans se séparer des fardeaux du passé.
Et qu’est-ce que cela veut dire pour les acteurs du monde du Cloud privé ? Leur empreinte va grandir avec le besoin de Cloud hybride.
Concernant Openstack, considérons le comme une plateforme qui s’appuie sur un noyau Linux au-dessus d’un hyperviseur KVM, et comme une plateforme qui a été ajustée au plus juste pour fournir un socle à un environnement Openstack.
La réflexion est identique pour la version privée d’Azure. Séparons-nous d’une installation complète de Windows Server pour nous concentrer les réels besoins d Azure en matière de fonctionnement.
Traduit et adapté par la rédaction