Sesterce, ce Marseillais qui ambitionne de devenir le nouvel OVHcloud de l’IA

L’entreprise, qui a débuté comme un prestataire de services de calcul pour le minage de cryptomonnaie, va construire d’ici à 2030 sept datacenters capables d’héberger des racks de 150 kW pour entraîner les plus puissants LLM.

Sesterce, un fournisseur marseillais de puissance de calcul en ligne pour le minage de cryptomonnaies, ambitionne de devenir le prochain OVHcloud de l’IA. C’est du moins ce qui ressort du grand projet Sesterce Data Center que l’entreprise vient de présenter à Paris.

Après avoir installé des supercalculateurs de plus en plus puissants dans les datacenters en colocation du territoire, Sesterce estime être devenu le plus grand spécialiste français des infrastructures à base de GPU Nvidia, qui servent aujourd’hui autant à calculer des blockchains qu’à entraîner les modèles d’IA. Si, pour lui, offrir ce second service est une évolution naturelle de sa première activité, l’acteur estime néanmoins que les espaces en colocation ne suffiront bientôt plus à soutenir sa croissance.

Sesterce s’est donc lancé dans un projet de constructions de datacenters en propre, spécialisés dans l’hébergement de serveurs remplis de GPUs bien plus énergivores et calorifiques que ne peuvent le supporter les salles d’Equinix et autres Digital Reality. Totalisant une puissance énergétique de 1 gigawatt d’ici à 2030, ces datacenters seront tous capables de faire fonctionner des clusters qui dissipent 150, voire 250 kW par rack, contre à peine 10 à 15 kW pour des étagères rack traditionnelles.

L’enjeu affiché est de soutenir le développement d’une IA souveraine et d’être, à l’échelle de l’Europe, le numéro 1 de l’hébergement pour l’entraînement des LLM. Soit en quelque sorte de transposer le modèle d’OVHcloud pour le cloud au secteur de l’IA.

Pour comprendre ce phénomène, LeMagIT est parti à la rencontre de Youssef El Manssouri, le PDG de Sesterce (en photo en haut de cet article). Interview.

Comment une société qui a commencé en faisant du minage de cryptomonnaie peut-elle prétendre aujourd’hui devenir le fournisseur numéro 1 des datacenters de calcul pour l’IA ?

Youssef El Manssouri : Notre ADN est le même que celui de la société américaine CoreWeave, une société qui a commencé sur le secteur du minage de cryptomonnaie et qui est aujourd’hui la société dominante dans la puissance de calcul au service de l’IA. Ils sont très connus, car ils gèrent les infrastructures d’OpenAI. À deux ans près, nous suivons exactement le même parcours qu’eux. Sauf que nous n’allons pas servir en puissance de calcul OpenAI, mais des acteurs européens, comme Mistral, par exemple, avec qui nous travaillons déjà beaucoup.

Il y a une véritable accélération des demandes sur le marché de la puissance de calcul pour l’entraînement des modèles en IA. Aux USA, Elon Musk a fait sortir de terre le supercalculateur xAI Colossus doté de 100 000 GPU H100 en 122 jours. Cela signifie que tout acteur sérieux du LLM devra bientôt avoir son cluster 100 000, 200 000, voire 500 000 GPU. Il faut créer des infrastructures pour cela en Europe, pour des questions de souveraineté. Nous travaillons à les créer, pour ne pas voir nos champions européens partir à l’étranger.

Mais est-ce une activité réellement pérenne ? Les analystes s’accordent à prédire qu’une fois l’essentiel des LLMs entraînés, les investissements se déplaceront vers les infrastructures d’inférence, bien plus légères.

Youssef El Manssouri : Effectivement, je pense que c’est une grille de lecture qu’on a un peu naturellement : les entreprises veulent utiliser des modèles déjà entraînés et elles peuvent faire de l’inférence dessus avec des infrastructures de plus en plus légères, reposant sur de petits FPGA ou des ASIC comme celui de Groq.

Mais le marché ne fonctionne pas comme cela. Ce que nous observons, c’est que plus on avance dans le temps, plus les fournisseurs de LLM se lancent dans une course acharnée pour perfectionner sans cesse leurs LLM. Or, plus vous voulez produire le LLM le plus performant possible, plus son entraînement a besoin de puissance de calcul.

Un autre point est que nous voyons aujourd’hui des signaux faibles dans les secteurs de la robotique et de l’automobile qui sont exactement les mêmes signaux faibles que nous voyions en 2020 dans la Business Intelligence et qui ont précédé l’arrivée de ChatGPT. Les voitures, les robots vont bientôt devoir analyser des situations bien plus complexes, avec des tailles de données bien plus phénoménales que celles utilisées par un chatbot actuel. Et pour y parvenir, ils devront se baser sur des modèles d’IA bien plus complexes à calculer que les LLM.

Pour le dire simplement, un LLM gère du texte, c’est-à-dire des combinaisons de 26 caractères. En revanche, un modèle d’IA adapté à l’automobile, à la robotique, doit être entraîné sur des images et des vidéos où il existe une infinité de possibilités.

Nous pensons donc que nous allons assister à une explosion de la demande en puissance de calcul, dans des proportions qui dépassent largement les besoins actuels des LLM. Et, ce, pour un bon moment.

À date, où en êtes-vous dans votre parcours pour proposer des datacenters de calcul pour l’IA ?

Youssef El Manssouri : Pour l’heure, nos infrastructures de calcul sont hébergées dans des datacenters en colocations, comme ceux d’Equinix ou de Digital Reality, avec qui nous sommes en partenariat depuis deux ans. Nous y déployons encore ce trimestre un cluster de 5 000 GPU Nvidia H200 qui correspond à la demande d’un de nos clients pour entraîner ses LLM.

Notre idée, au travers du projet Sesterce Data Center, est de bâtir nos propres datacenters pour ne pas être dépendants d’acteurs de la colocation qui ont leur propre agenda, lequel n’avance pas nécessairement à la vitesse que nous voulons.

Par exemple, nous voulons proposer un cluster qui nécessiterait 300 mégawatts – nous ne faisons que nous aligner sur ce que nous dit Nvidia, qui nous demande de monter à 150, voire 200 kW par rack. Fournir 300 MW, ce n’est pas forcément le métier d’Equinix ou de Digital Reality. Eux veulent adresser des besoins diversifiés, alors que nous voulons des salles d’infrastructures spécialisées dans l’IA. Or, d’ici à deux ans, cette spécialisation demandera que les salles d’infrastructure ne servent qu’aux clusters de calcul.

Notre premier objectif est de mettre en production d’ici à 2026 deux sites qui totaliseront 400 mégawatts. L’un, de 50 MW, est en chantier à Valence. L’autre, de 350 MW, sera un mégahub dans le sud-est. Nous dévoilerons dans quelques semaines son emplacement exact.

Notre projet actuel vise à construire d’ici à 2030 une flotte d’environ sept datacenters qui totaliseront 1 GW. C’est-à-dire que nous sommes en ce moment en discussion pour savoir où nous bâtirons les datacenters qui offriront les 600 MW restants.

Nous pensons que multiplier les sites permettra de proposer différentes infrastructures pour les différentes typologies de fournisseurs de modèles d’IA.

Mais comment allez-vous financer une infrastructure qui consomme 1 GW quand on sait que le moindre GPU de Nvidia, qui consomme 1 kW, coûte déjà 40 000 euros ?

Youssef El Manssouri : Notre investissement concerne la construction des bâtiments d’infrastructure et l’achat d’un cluster qui ne consomme que 100 MW.

Plus précisément, dans cette flotte de datacenters totalisant 1 GW, il y aura notre propre infrastructure, que nous commercialiserons comme un service de calcul. Nous visons pour cette infrastructure un cluster de 100 000 GPU Nvidia Blackwell qui, donc, consommera 100 MW. Et il faut comprendre que nous dimensionnons ce cluster selon les besoins déjà exprimés par différents clients.

Le reste sera de l’espace de colocation, destiné à héberger les infrastructures de nos clients. Nous n’achèterons pas nous-mêmes ces infrastructures-là. Ces clients pourront être des fournisseurs de LLM eux-mêmes, ou des grands hébergeurs de cloud qui auront besoin de locaux spéciaux pour déployer le mégacluster de calcul leur permettant de commercialiser des services d’entraînements à la demande.

Concernant, donc, le financement de notre propre cluster, il faut comprendre que cela se ne finance pas comme du matériel informatique, mais comme des pièces d’infrastructures. Les investisseurs sont très mâtures sur ces sujets-là – je pense à des gens comme la Caisse des dépôts, BlackRock, ou encore Macquarie qui ont désormais des services spécifiques au financement des infrastructures d’IA - et nous pouvons aller les voir pour leur proposer un contrat de dette sur deux ou trois ans. C’est le premier point.

Le second point est que, finalement, quand on voit comment le marché évolue, quand on voit que des acteurs qui ont commencé avec 1000 ou 2000 GPU il y a un an demandent à présent de déployer des dizaines de milliers de GPU, déployer un cluster de 100 000 GPU d’ici à deux ans, c’est finalement un objectif assez modeste. Pour reprendre le modèle de CoreWeave aux USA, ils parlent déjà de déployer plusieurs centaines de milliers de GPU.

Je pense donc que notre projet reflète juste le niveau d’ambition que les investisseurs français ou européens doivent avoir. C’est une question de souveraineté. C’est-à-dire permettre aux acteurs locaux de l’IA de rivaliser sur le marché international.

Et d’ici à 2030, y aura-t-il suffisamment d’électricité en France pour apporter 1 gigawatt à sept datacenters ?

Youssef El Manssouri : En fait, nous visons une consommation de 400 à 500 mégawatts en France et, pour le reste, ailleurs en Europe.

En France, nous travaillons au quotidien avec RTE sur le déploiement des lignes électriques. Ils viennent d’annoncer une mise à jour de leur réseau permettant de grimper à 3,2 GW dans le sud du territoire métropolitain. Nous travaillons aussi avec divers énergéticiens pour comprendre leurs contraintes, leurs limites et savoir comment nous pouvons implémenter des datacenters sans impacter l’utilisation quotidienne de l’énergie par les citoyens.

Même question concernant le refroidissement de telles infrastructures : les solutions sont-elles déjà au point ?

Youssef El Manssouri : C’est le sujet de travail principal de nos laboratoires. Le problème est que les technologies de refroidissement liquide ne sont pas encore forcément normées. Il y a encore beaucoup de travail à faire et nous échangeons au quotidien sur ce sujet-là avec des gens comme Nvidia, comme Dell et avec d’autres dont nous apprécions le design. Actuellement, ces solutions nous permettent de monter à 150 kW par étagère rack, ce qui sera suffisant pour des GPU Blackwell. Mais la génération suivante, les GPU Rubin de Nvidia, nécessitera de monter à 250 kW par rack. Et Nvidia nous parle même déjà de 500 kW par rack !

C’est pour cela que nous insistons sur le fait de créer des salles d’infrastructures inédites, car un datacenter traditionnel ne pourra jamais être adapté à une telle puissance. Il faut que le refroidissement soit pensé à l’échelle du datacenter et pas juste à l’échelle des racks.

Votre ambition est-elle de devenir une sorte d’OVHcloud de l’IA ?

Youssef El Manssouri : Le secteur de l’IA fait naître depuis ces derniers mois une nouvelle classe d’hébergeurs qui est à cheval entre les fournisseurs de cloud traditionnels, comme OVHcloud et Scaleway, et les fournisseurs de centres de supercalcul, comme l’a été Eviden. Aux USA, ils ont déjà des fournisseurs de services de calcul qui sont à 100 % dédiés à l’IA. Un tel acteur n’existe pas en France ni en Europe. Donc oui, nous essayons de construire cet acteur-là avec Sesterce.

Pour approfondir sur Architectures de Datacenters