Timon - stock.adobe.com

Oracle devient le deuxième cloud privilégié d’OpenAI

Oracle et OpenAl se sont associés pour étendre Azure Al à OCI. Le but est de fournir des « capacités supplémentaires » à l’éditeur de ChatGPT. Azure reste son partenaire cloud privilégié, et même exclusif pour l’entraînement des modèles.

« OCI étendra la plateforme d’Azure et permettra à OpenAI de continuer à évoluer ». C’est avec ces mots que Sam Altman, CEO d’OpenAI, l’éditeur de ChatGPT, a annoncé son nouveau partenariat.

« La course à la création du plus grand modèle de langage au monde est lancée, et elle alimente une demande illimitée pour l’infrastructure d’IA Gen2 d’Oracle », a réagi pour sa part Larry Ellison, Chairman et CTO d’Oracle.

Le géant du logiciel professionnel et des bases de données en profite au passage pour faire la promotion des mérites de son cloud et rappeler que d’autres acteurs de l’IA exécutent des workloads sur son infrastructure : Adept, Modal, MosaicML, NVIDIA, Reka, Suno, Together AI, Twelve Labs, ou encore xAI (de Elon Musk).

« Tous, et d’autres, utilisent OCI Supercluster pour entraîner et inférer des modèles d’IA de nouvelle génération », vante Oracle.

De fait, pour l’entraînement des LLMs, son Supercluster peut évoluer jusqu’à 64k GPU NVIDIA Blackwell ou GB200 Grace Blackwell Superchips, connectés par un réseau de cluster RDMA à très faible latence et un choix de stockage HPC. Les machines virtuelles OCI Compute et les instances NVIDIA GPU bare metal peuvent exécuter des applications de computer vision, de NLP, des algorithmes prédictifs, ou donc, de GenAI – liste Oracle.

Mais dans les faits, ce n’est pas ce qu’OpenAI fera. Dans un message officiel sur Twitter/X, l’éditeur précise que le périmètre de ce partenariat avec Oracle ne concerne pas l’entraînement des modèles. Celui-ci continuera à se faire exclusivement sur des supercalculateurs construits en partenariat avec Microsoft. Et cela se comprend puisque Microsoft est l’investisseur numéro 1, et de loin, d’OpenAI.

« Nous souhaitons dissiper certaines confusions involontaires », précise donc OpenAI après le communiqué d’Oracle. « Le partenariat avec OCI permet à OpenAI d’utiliser la plateforme Azure AI sur l’infrastructure OCI pour l’inférence et d’autres besoins ». L’éditeur ne précise pas ces « autres besoins », mais on peut penser à des capacités de débords ; la demande pour les services clouds de GenAI dépassant déjà les capacités actuelles des hyperscalers.

Un accord de ce type existe déjà entre Oracle (OCI) et Zoom depuis 2020. Depuis, Zoom transfère chaque jour plus de 7 pétaoctets via les serveurs Oracle Cloud Infrastructure – « ce qui équivaut à peu près à 93 ans de vidéo HD », compare Oracle.

La relation privilégiée entre OpenAI et Microsoft n’est en tout cas pas altérée. Au contraire. Elle utilise aujourd’hui la relation historique de bonne entente qu’entretiennent Oracle et Microsoft. Cette entente a permis depuis plusieurs années de construire des ponts entre leurs deux clouds et même, depuis cette année, d’héberger des infrastructures OCI depuis Azure. Le but affiché lors de l’annonce de cette option était d’ailleurs… d’éviter les chutes de performances lors de l’entraînement d’un modèle OpenAI sur des données Oracle.

Pour approfondir sur Hardware IA (GPU, FPGA, etc.)

Close