Laurent - stock.adobe.com

Intel arme ses Xeon d’une plateforme pour le Deep Learning

Le Californien a présenté Nauta, une plateforme open source bâtie sur Kubernetes pour faciliter l’entrainement et le déploiement de modèle de Deep Learning sur les processeurs Xeon Scalable de la marque.

Intel n’a pas l’intention de se laisser distancer dans la bataille des puces adaptées à l’apprentissage des réseaux de neurones profonds (Deep Learning). Le géant californien a ainsi présenté une plateforme open source distribuée pour l’apprentissage de modèles de Deep Learning. Sa particularité : elle s’adosse à KubeFlow, un ensemble d’outils dont la vocation est de faire de Kubernetes un socle idéal pour déployer des modèles de Machine Learning et orchestrer les précieux entrainements, très gourmands en ressources.

Nauta, nom de la plateforme, abrite une série de templates pour faciliter les opérations de déploiements auprès des développeurs et surtout, auprès des data scientists qui, selon le Californien, constitue une cible première pour Nauta. Des travaux en matière de collaboration multi-utilisateurs ont d’ailleurs été menés sur cette plateforme. Car l’une des priorités d’Intel a justement été de porter Kubernetes et Kubeflow, généralement complexes, auprès de cette cible de scientifiques de la donnée. « Kubernetes, largement adopté comme gestionnaire des ressources pour  le Deep Learning, est excellent pour les départements IT, mais difficile pour les Data Scientists », lance un représentant d’Intel. Nauta doit ainsi permettre aux Data scientists « d'utiliser la puissance de Kubernetes », mais sans modifier leur expérience et leur workflow sur leur poste de travail. « Avec Nauta, Intel s'engage à faciliter le cycle de développement pour tous les développeurs, y compris les data scientists et les ingénieurs de données, pour les applications IA »,  insiste encore ce même responsable.

Pour l’IT, cette plateforme fédère les meilleures pratiques en matière de Deep Learning, motorisé par Kubernetes, précise Intel.

Nauta a aussi la particularité de mettre en avant les processeurs Xeon Scalable de la marque et de montrer que ces puces ont leur rôle à jouer dans le traitement des modèles de Deep Learning. Il faut dire que les puces X86 sont souvent délaissées pour des alternatives, comme le GPU, afin de gérer les entrainements des modèles de Deep Learning et de Machine Learning. Nvidia travaille depuis longtemps à développer ses processeurs graphiques et ses spécificités (rapport performances / consommation énergétique) dans ce domaine et a notamment mis au point, avec AMD, Volta, une architecture dédiée aux réseaux neuronaux. Sans parler des puces optimisées de Google (le TPU – Tensor Processing Unit).

Intel a toutefois vu l’intérêt de ses concurrents pour ces architectures et a déboursé en 2016 quelques 400 millions de dollars pour se payer Nervana Systems, un spécialiste du genre.

Mais depuis, les autres cadres du cloud ont aussi emboité le pas de Google. A l’occasion de l’édition 2018 de ReInvent, AWS a par exemple présenté les développements de son propre processeur ARM, et de sa propre puce GPU dédiée à l’apprentissage ML (Inferentia). Le géant chinois Alibaba a également entrepris de développer sa propre puce pour accélérer les applications d’intelligence artificielle sur son cloud.

Pour approfondir sur Processeurs et composants