Pat Gelsinger revient chez Intel en sauveur
Le PDG, qui a brillamment fait passer VMware de l’âge de la virtualisation à l’ère du cloud, prend les rênes d’Intel, dont il était autrefois le gourou technique et qui déclinait depuis son départ.
Pat Gelsinger n’est plus le patron de VMware. Il retourne chez Intel pour en devenir le nouveau PDG, un poste qu’il méritait depuis plus de quinze ans. Dans un communiqué, il se félicite de revenir « chez lui ». L’annonce de cette nomination est une mauvaise nouvelle de plus pour VMware, qui a déjà vu en décembre le très stratégique directeur de sa division cloud partir pour prendre les rênes de son concurrent Nutanix. En revanche, côté Intel, ce retour sonne exactement comme celui de Steve Jobs chez Apple en 1997 : l’enfant prodigue revient au bercail pour sauver la compagnie qui a dangereusement décliné depuis son départ.
Pat Gelsinger a commencé sa carrière à 18 ans chez Intel, il y est resté 30 ans, et a culminé en devenant le grand gourou technique d’un fondeur omnipotent, qui écrasait alors méthodiquement toute velléité de concurrence par son avance de plusieurs années dans les semi-conducteurs. CTO d’Intel, Pat Gelsinger était le héraut des IDF – les Intel Developper Forum – d’immenses raouts où se pressaient chaque année médias et grandes entreprises du monde entier pour découvrir les dernières innovations technologiques et annonces stratégiques des processeurs x86.
Pat Gelsinger, l’âme technique d’Intel
Sur scène, comme Steve Jobs à la même époque, il impressionne. Il dévoilait des finesses de gravures inédites. Il démontrait que son équipe avait su franchir la barre mythique des 4 GHz. Il annonçait l’arrivée des x86 à cœurs multiples. Il levait le voile sur les premiers processeurs à faible consommation. Il expliquait comment Intel avait eu la brillante idée de recycler les usines de ses générations précédentes pour fabriquer des contrôleurs mémoire, réseau, Wifi, graphiques, ce qui pérennisait non seulement sa rentabilité, mais aussi sa toute-puissance sur les cartes mères. Et, déjà, il parlait des composants photoniques. C’était l’époque où Steve Jobs décidait qu’il valait finalement mieux mettre des processeurs Intel dans les Mac.
Et puis, patatras ! En septembre 2009, des actionnaires peu inspirés décident de le pousser vers la sortie, pour exactement les mêmes raisons qui avaient incité Apple à mettre Steve Jobs au placard en 1985 : ras-le-bol de la technique, place aux paillettes. À l’époque, l’austère PDG Paul Otellini est lui-même recasé sur la découverte des nouveaux marchés. Pour remplacer le duo, on met aux commandes le commercial Sean Maloney et son acolyte Dadi Perlmutter. Cet as du marketing devient alors le chef des prochaines architectures. On retiendra surtout de celles-ci que des noms de lacs tous plus illisibles les uns que les autres remplacent dès lors les caractéristiques techniques.
La décennie suivante, Intel voit lui échapper l’énorme opportunité des processeurs pour appareils mobiles. De fil en aiguille, le glorieux fondeur se retrouve distancé par les usines asiatiques qui fabriquent les très nombreuses puces des smartphones et réunissent bien plus rapidement que lui les fonds nécessaires à la construction des usines de génération suivante.
Intel termine l’année 2020 en accouchant – enfin – d’une génération de processeurs gravés en 10 nm, avec désormais deux générations de retard sur les processeurs ARM gravés en 5 nm dans les usines de TSMC. Apple le lâche. Et AMD lui reprend des parts de marché sur les PC et les serveurs grâce à ses processeurs Ryzen et Epyc eux aussi gravés chez TSMC.
L’art d’avoir su transformer VMware
Pendant ce temps, Pat Gelsinger est parti chez le géant des baies de stockage EMC. Il en est resté pendant trois ans le numéro 2, intervenant notamment sur le développement des premières infrastructures convergées puis hyperconvergées sous la marque VCE, en commun avec Cisco (machines VBlock, puis VxBlock, VxRack, VxRail...). L’idée consiste à construire les briques nécessaires à la mise en place d’un cloud privé. En 2012, il se voit confier la direction de la filiale VMware, spécialiste de la virtualisation de serveurs, poste qu’il occupait jusqu’à ces derniers jours.
À son palmarès chez VMware, citons le fait d’avoir maintenu l’activité de sa société à bout de bras quand, en 2016, le rachat d’EMC par Dell est vécu par l’écosystème comme une trahison culturelle et s’accompagne de la démission de nombreuses figures stratégiques.
On lui doit surtout d’avoir su transformer techniquement et commercialement l’offre de virtualisation de serveurs de VMware en solution d’infrastructure totalement compatible avec la déferlante cloud. Il métamorphosera les technologies réseau rachetées à Nicira en réseau virtuel NSX-T, brique fondamentale pour unifier un datacenter et un cloud public sur les mêmes règles de fonctionnement.
Il rachètera AirWatch en 2014, pour ajouter le VDI – si essentiel au télétravail – au catalogue de ses fonctions, puis VeloCloud en 2017 et Nyansa en 2019, pour avoir un SD-WAN capable de connecter physiquement un site au cloud, ou encore Avi Networks en 2019, dont l’interface permet de piloter tous les réglages d’un cloud hybride. Et puis, bien sûr, il osera prendre la décision radicale d’intégrer la technologie concurrente Kubernetes au cœur même de sa solution pour être 100 % compatible avec le format des nouvelles applications en cloud.
L’enjeu de sortir Intel de ses difficultés
De retour chez Intel, Pat Gelsinger va retrouver sur la table le dossier qu’il avait laissé en partant : les architectures photoniques. En l’occurrence, les scientifiques d’Intel sont récemment parvenus à mettre au point des microfibres optiques enroulées autour d’un récepteur pour remplacer le plus possible les connexions cuivre entre les composants, par des connexions optiques. Cette technologie est porteuse de meilleures bandes passantes entre les processeurs, les GPU, la RAM et les disques, mais aussi de communications à très haute vitesse sur de plus grandes distances, qu’il s’agisse de réseaux de données ou de stockage.
Ces avancées pourraient donner à Intel un avantage inédit dans les performances des serveurs en cluster, notamment en autorisant des designs de machines à la fois plus économes en énergie et plus rapides dans les traitements en parallèle. Au-delà des supercalculateurs, la technologie est déclinable sur le papier à toutes les configurations qui exécutent des machines virtuelles et des bases de données, ce qui permettrait à Intel de redevenir incontournable dans les datacenters et, surtout, chez les hébergeurs de cloud. Encore mieux : il y a quelques jours, le CEA-Leti révélait au MagIT qu’il planchait sur la mise au point pour Intel de telles connexions optiques au sein même des processeurs.
Reste à savoir en combien de temps Pat Gelsinger va parvenir à sortir Intel de ses difficultés. En l’état, Intel n’a pas proposé beaucoup d’idées pour enrayer son retard sur les finesses de gravure, à part une réorganisation aussi musclée que symbolique des équipes internes. Les efforts du CEA-Leti pour améliorer les performances au niveau des interconnexions des puces Intel, tout en baissant leur coût ne devraient pas être concrétisés sur les Xeon avant au moins 2023. D’ici là, Intel avait prévu de proposer, accessoirement, des modules réseau photoniques, en partenariat avec Sony et NTT, au sein d’un consortium IOWN.
À son planning, Intel doit aussi pousser autant qu’il peut ses solutions de stockage Optane, dont il a mis au point la technologie 3D XPoint avec Micron. Le marché n’a pas bien compris pourquoi ils ont ensuite décidé de faire bande à part pour développer les générations suivantes. L’avance des SSD Optane – ils sont plus rapides et s’usent moins vite que les SSD à base de NAND – est fragile. Il y a quelques jours, un fabricant taiwanais du nom de Phison a présenté un nouveau SSD NAND qui atteint des débits de 7,4 Go/s en lecture et 7 Go/s en écriture, soit plus ou moins les 7,2 Go/s du dernier SSD Optane P5800X, grâce à une gravure de ses cellules en 12 nm au lieu des 28 nm généralement rencontrés.
La gamme Optane a peut-être une carte plus importante à jouer dans la capacité RAM. Intel propose en effet ses produits sous la forme de barrettes DIMMs conventionnelles qui, pour un prix similaire, offrent deux fois plus de capacité que les DRAMs, moyennant une subtile baisse de performances. L’intérêt de cette solution, qui fonctionne sur les serveurs Xeon, mais pas sur les AMD ni sur les ARM, est qu’elle minimise les accès disques et donc accélère par 10, voire par 100, les bases de données. Des fournisseurs comme NetApp ont conçu pour lui des pilotes qui déroutent les accès disques vers la RAM. Dernièrement, une startup du nom de GigaIO a proposé un module PCIe, FabreX, qui permet de partager la mémoire Optane entre plusieurs serveurs.
Problème, Intel ne semble pas spécialement épouser ces dynamiques. Là, le fondeur s’empêtre dans des dénominations marketing – modes Memory et App Direct – qui suggèrent des incompatibilités. Là, il propose de réinventer avec DAOS ce que NetApp a déjà fait.
En face, la concurrence ne ralentit pas. AMD a déjà présenté avant-hier les premières caractéristiques de sa troisième génération de processeurs Epyc, les « Milan ». À base des mêmes nouveaux cœurs Zen3 que les Ryzen 5000 pour PC, gravés en 7 nm par TSMC, ils devraient arriver dans le courant de l’année sur les serveurs. Selon les premiers tests, le modèle de milieu de gamme à 32 cœurs (le haut de gamme en aura 64) serait 68 % plus rapide que le haut de gamme des Intel Xeon en 28 cœurs.
Pat Gelsinger doit prendre ses nouvelles fonctions à la tête d’Intel le 15 février prochain.