L'avenir du Cloud : de la donnée et des conteneurs, selon Google
En 2020, le Cloud sera rentré dans sa troisième phase. Selon Google, la colocation puis la virtualisation auront laissé place à l'ère de l'automatisation totale et de la flexibilité absolue, du conteneur et de la donnée interprétable par tous. Une vision mi-réaliste, mi-idéaliste.
Google a réorganisé ses offres B2B sous la marque ombrelle Google for Works dans laquelle on retrouve les grandes catégories : applications (Apps for Work, ex-Google Apps for Business), Maps for Work (cartographie) ou les outils de développement maison au sens large (Google Cloud Platform alias GCP). Le tout, évidemment dans l'univers d'"Alphabet", en 100 % hébergé.
De passage à Paris, Carl Schachter (Vice-Président Google Cloud Platform) et Greg DeMichillie (Director Product Management) ont profité de l'évènement NEXT pour livrer leur vision de l'avenir de ce Cloud. Une vision appuyée par une vidéo d'introduction où se mêlaient Big Data, analytique, temps réel et Internet des Objets (IoT), et qui s'achève sur un slogan explicite "Build Smart, Build What's Next".
Le Cloud en 2020
L'exercice de prédiction est souvent une opération de promotion. Il n'en reste pas moins que dans ce cas précis, l'analyse reste intéressante. Pour les deux dirigeants de Google, le Cloud sera de moins en moins une question de technologie et d'infrastructure (en tout cas pour l'entreprise utilisatrice) et de plus en plus un outil qui permettra, simplement, de se concentrer sur le code et les données.
"La donnée est tout", lâche Carl Schachter. "Peu importe que vous soyez une grande, une moyenne ou une petite entreprise. Un jour ou l'autre vous aurez à gérer des données".
Or les volumes de ces "data" explosent. Tout comme le trafic internet. Résultat, le Cloud à l'ancienne, à base de VM et de planifications - même assouplies - ne fonctionnera plus. "Quand le ciel est la seule limite, il devient difficile de planifier une capacité maximale... parce qu'il n'y a plus de capacité maximale".
A en croire Google, GCP est le seul à proposer un déploiement de serveurs (IaaS) entièrement automatisé. Un porte-parole du groupe de presse gratuite Metro acquiesce. Le site du journal connait de fortes variations de fréquentation. Certaines sont cycliques (nuit / jour) mais d'autres sont totalement imprévisibles (actualité soudaine).
Auparavant, l'entreprise utilisait AWS. "Mais choisir entre des plans L, XL, XXL, n'est plus possible quand on a des écarts aussi énormes... surtout quand on veut changer de capacité au milieu de la nuit pour le matin même". Ce que Google nomme l'"évolutivité indéfinie, continue" (en vo : "indefinite, interminable scale").
"Les conteneurs, fondation de l'IT des 20 prochaines années"
A terme, c'est le concept même de VM dans le Cloud qui devrait décliner. Son remplaçant est déjà tout trouvé. Il est d'ailleurs déjà massivement utilisé pour tous les services de Google : les conteneurs.
"Les conteneurs sont un sujet dont on parle trop peu ("under-hype")... ce qui est rare dans l'IT", plaisante Greg DeMichillie. "Ils sont la fondation de l'IT des 20 prochaines années. Chaque semaine nous lançons 2 milliards de conteneurs. Je dis bien lancés... pas gérés... lancés !". D'où le projet Kumbernetes de Google pour gérer cette masse de conteneurs, où qu'ils soient (sur GCP mais aussi sur Azure, sur AWS ou sur site).
Un des intérêts des conteneurs est de s'affranchir de la lourdeur des VM (taille de la mémoire à fixer, OS hôte, etc.) et de permettre à une application - ou à des micro-services qui composent une application - d'être distribués, migrés ou transféré d'un système à un autre en étant sûr que l'application fonctionnera à l'identique.
"Être sûr que votre code sur votre desktop ou en environnement de test tournera exactement de la même manière en production est un progrès énorme", résume Greg DeMichillie. "Dans le Cloud du futur, les devs doivent pouvoir créer des apps, pas faire du DevOps". Une démarche que certains qualifient déjà de NoOps.
L'analytique de plus en plus simple... mais toujours aussi compliqué
A l'autre bout de la chaine, les métiers sont de plus en plus demandeurs d'informations, c'est à dire de données transformées en enseignements utilisables concrètement. Une transformation qui se veut de plus en plus abordable et non plus réservée à quelques initiés diplômés du MIT ou de Polytechniques en mathématique appliquées.
La présence en guest stars sur les stands de l'évènement de la start-up Bime et de Fastly témoigne de ce constat fait par Google.
Un constat réel. Mais un constat à modérer. Certes des outils de GCP visent à simplifier l'analyse big data (on pense par exemple à BigQuery). "On passe de l'ère Hadoop à l'ère Big Query" se réjouie Greg DeMichillie. "La plupart des gens font du Hadoop. C'est génial. Mais l'argent n'est pas dépensé dans l'analyse des données. Il est majoritairement mis dans la maintenance ou dans le temps passé à savoir quelle taille devra faire mon datawarehouse" (car non, dans le BigData les entrepôts de données ne sont pas morts).
Pour mémoire, Big Query permet d'uploader des données diverses dans le Cloud et de les requêter simplement en SQL sans s'occuper du reste.
Chez Oscaro.com par exemple, le Chief Data Scientist confirme qu'en deux heures de formations avec les métier (pour les familiariser avec SQL) BigQuery permet à tout un chacun de générer ses propres tableaux et rapports.
Mais à l'opposé, certaines démos montrent que ces projets Big Data sont toujours proche des Shadoks.
Toujours chez Oscaro, ce sont pas moins de 10 personnes qui composent l'équipe de Data Scientists. Alors que certaines ont du mal à n'en recruter qu'un. Et l'étape suivante pour l'entreprise spécialisée en pièces détachées automobiles (et qui fait du predictif pour gérer ses stocks en flux tendus) est d'utiliser Google Data Flow... un outil qui repose sur du "vrai code" pour les mathématiciens et les économistes. Pas à la portée de toutes les sociétés donc. Et ce même si Google le présente comme un autre outil de simplification du Big Data (il permet en effet de ne pas s'occuper de provisionner une infrastructure sous-jacente mais de se concentrer sur l'analyse d'un pipeline de donnée en temps réel).
L'annonce de Cloud Datalab, un "notebook pour Data Scientist", laisse la même impression. Lancé pour "simplifier l'exploration, l'analyse et la visualisation des données", la démonstration du produit a surtout montré qu'il fallait avoir - pèle mêle - des compétences poussées en SQL, en Pyhton et JavaScript, en Machine Learning et en algorithmique. Simple à réunir sur le papier, moins dans la réalité.