Quantique : une année 2024 particulièrement dense en France

Pouvoirs publics et acteurs économiques se sont réunis courant novembre chez Sopra Steria pour faire un point sur l’état de l’informatique quantique en France. Compte-rendu.

Sous la houlette de Didier Carré, président de l’institut G9+, et l’accueil de Sopra Steria, s’est tenue fin novembre une conférence sur la situation actuelle et future de l’informatique quantique dans l’Hexagone et en Europe avec des résultats encourageants pour la filière française.

Amandine Reix (tout à gauche sur la photo), sous-directrice spatial, électronique et logiciel à la Direction générale des Entreprises, a rappelé l’engagement pris en 2021 par le Président de la République : que l’État investisse 1 milliard d’euros d’argent public dans le domaine de l’informatique quantique au travers de la mission France 2030. 

« Il s’agit d’un enjeu de souveraineté », rappelle Mme Reix. « Le quantique représente des enjeux énormes pour les domaines militaires, pharmaceutiques, énergétiques et météorologiques, notamment ».

Madame Reix souligne sans ambages la dimension économique de la discipline : « On peut gagner de l’argent avec et c’est ce que nous voulons faire ». Elle invite d’ailleurs les entreprises privées à contribuer également fortement au développement de l’ordinateur quantique et précise que les entreprises françaises du domaine ont déjà levé 350 millions d’euros.

Fanny Bouton, d’OVH Cloud (deuxième en partant de la gauche), cite le PDG de l’entreprise Octave Klaba qui estime que toute entreprise réalisant un 1 milliard d’euros de chiffre d’affaires devrait investir au minimum 1 million d’euros dans l’informatique quantique afin de préparer l’avenir.

Cinq startups sélectionnées

Dans ses investissements, l’État a choisi cinq startups qui ont chacune des paris technologiques différents afin de couvrir une large partie des concrétisations matérielles envisagées pour l’avenir et en restant agnostique. Les cinq sociétés sont Quandela, Pasqal, Alice & Bob, C12 et Quobly. « Ce n’est pas une technologie qui est complètement mature actuellement, mais notre pays est bien positionné et nous avons toutes les raisons d’espérer ».

Un bémol toutefois : pour se financer, les startups peuvent être tentées de se tourner vers des fonds extraeuropéens et l’État précise qu’il y sera très attentif, toujours pour ses impératifs de souveraineté. Pour cette raison, la puissance publique s’appuie en premier lieu sur la recherche fondamentale afin d’éviter d’une part, les transferts de technologies vers des pays tiers, voire hostiles et, d’autre part, de permettre la création d’un écosystème s’adossant à ces travaux. Mme Reix souligne également la nécessité de sécuriser les matériaux comme le silicium 28, la cryogénisation avec de grands groupes industriels comme Air Liquide et de faire fonctionner la commande publique via Proqcima.

Le Graal du FTQC

Toutes les opérations menées par les différents acteurs, indépendamment de leurs choix technologiques, ont un objectif commun : aboutir au FTQC (Fault Tolerant Quantum Computer/Ordinateur quantique à tolérance de panne), c’est-à-dire des ordinateurs quantiques dits « parfaits ».

Un premier rapport sur les travaux de l’académie des technologies dirigée par Thierry Bonhomme (au milieu sur la photo) vient d’être terminé et sera dévoilé dans les prochaines semaines. 

« Dans ses grandes lignes, le rapport met l’accent sur la mise à l’échelle vers le FTQC et l’algorithmie qui doit y être associée », souligne M. Bonhomme. « Le rapport pointe également les ressources nécessaires autour des différentes applications : chimie de l’azote, chimie des médicaments, matériaux résistants à la corrosion, algorithme de Shor. »

À ce propos, M. Bonhomme a d’ailleurs tordu le cou à une rumeur survenue voici quelques semaines prétendant que des scientifiques chinois avaient pu craquer les clés de chiffrement RSA 2048 bits par l’implémentation de l’algorithme précité. Ce qui aurait été une déflagration mondiale pour la sécurité des transactions n’est en réalité que ce que les Anglo-saxons nomment Fud pour Fear, uncertainity and Doubt ».

En effet, il faudrait mobiliser l’équivalent de 10 puissance 12 opérations, ce qui est proprement impossible actuellement en plus de 7 000 qbit logiques. Autrement dit, ce n’est pas demain que l’algorithme de Shor pourra être mis en place. M. Bonhomme estime que les prévisions les plus optimistes faisant état d’un délai de 5 ans ne sont pas réalistes selon lui.

Des roadmaps réalistes

L’un des points les plus encourageants est que l’ensemble des roadmaps passées ont été tenues, ce qui peut laisser penser que les futures le seront également avec toutefois une incertitude sur quelle technologie l’emportera. Toutefois, M. Bonhomme ne nie pas l’étendue des défis avant d’arriver au FTQC. « J’en vois quatre : la qualité et quantité des qbits, les codes correcteurs d’erreurs, l’interconnexion entre les QPU (Qantum Processing Unit) et enfin l’architecture technique et pas seulement le processeur. Et ce dernier n’est pas assez développé en France ».

Chloé Poisbeau (deuxième en partant de la droite), COO d’Alice & Bob revient sur les avancées 2024 de l’entreprise. « Depuis l’origine, nous avons fait le choix d’avoir une roadmap concentrée sur le FTQC. En conséquence, une part importante de nos travaux se concentre sur la qualité des bits quantiques. Nous nous concentrons sur la performance et la qualité en matière de correction d’erreurs avant de les accumuler. » Récemment l’entreprise a mis sur la marketplace Google une puce à 1 Qbit, qui se caractérise par un taux très important en matière de correction d’erreurs.

L’entreprise propose également un émulateur quantique disponible via l’opérateur Equinix. Le choix technologique d’Alice & Bob s’appuie sur une technologie dite Qbits de chats, laquelle simplifie considérablement l’étape ô combien importante de la correction. Comme les autres acteurs, l’horizon 2028-2030 est évoqué à minima pour l’arrivée au FTQC. Mme Poisbeau indique que c’est à partir de 100 qbits logiques que l’on commence à voir des preuves que l’informatique quantique surpasse l’informatique traditionnelle. Pour ce faire, il convient de créer et de stabiliser un certain nombre de qbits physiques. L’objectif est donc d’obtenir cette puissance avant la fin de la décennie, avec une roadmap précise qui sera détaillée à la fin de cette année.

Google a publié récemment une étude montrant que l’augmentation significative de qbits avait un impact sur la correction d’erreurs, étape indispensable pour arriver au FTQC. « C’est une publication majeure qui a eu beaucoup d’échos dans l’industrie », rappelle Chloé Poisbeau. « Google indique que pour faire tourner l’algorithme de Shor, il leur faudrait 20 millions de qbits physiques. Nous [Alice & Bob] avons effectué la même étude et nous arrivons à 200 000 qbits physiques, car nous utilisons une autre technique pour la correction d’erreurs ».

Pasqal et Quandela livrent des solutions

Du côté de chez Pasqal, on se concentre sur 3 axes.

Le premier est, sans surprise, l’ordinateur et l’entreprise a livré très récemment une machine de 100 qbits à l’Allemagne. Une autre machine sera livrée à l’Arabie Saoudite l’année prochaine. « Très récemment nous avons réussi à piéger 1 000 atomes ce qui signifie que dans notre technologie, un atome piégé est équivalent à 1 qbit », affirme Lina Alzate, responsable commerciale pour Pasqal.

Le deuxième axe est le logiciel Open Source qui est mis à disposition des utilisateurs, afin de commencer à tester l’accès au cloud Microsoft Azure et Google, ainsi qu’un partenariat avec IBM pour la biologie et la science des matériaux.

Enfin, le 3e axe consiste à développer les cas utilisateurs afin que les clients puissent travailler concrètement.

Pour Quandela, l’année 2024 a marqué le démarrage de leur usine sortie de terre l’année précédente et les premières livraisons d’ordinateurs quantiques, notamment pour OVH en France ou encore au Canada.

« Les premiers ordinateurs quantiques que nous livrons sont pour que les utilisateurs se forment, testent et comparent à ce qui existe dans l’informatique traditionnelle. Nous avons à cœur de bâtir un écosystème autour de cette discipline », révèle Valerian Giesz (tout à droite sur la photo), co-fondateur et COO de Quandela. « Nous avons aujourd’hui plus de 1 000 utilisateurs sur notre cloud et nous travaillons avec des partenaires comme OVH Cloud ou encore Scaleway afin de créer toujours plus de cas d’usage. »

L’entreprise indique avoir réussi à développer des qbits corrigés photoniques et il s’agit maintenant de les assembler et de passer à l’échelle. M. Giesz précise que le photonique travaillant avec des fibres optiques signifie qu’il s’agit de modèles à basse consommation d’énergie, et que le photon étant un qbit relativement solide, il n’est pas nécessaire de le refroidir à très basse température. Les premiers ordinateurs quantiques corrigés sont prévus pour 2027.

Pasqal travaille sur sa prochaine machine dénommée « Orion Beta » qui doit voir le jour avant la fin de l’année. Elle sera dotée de 1 000 qubits et supportera environ 5 millions d’opérations de portes quantiques. Les machines « Orion Beta » pourront être commandées pour des installations « on-premises » fin 2024/début 2025. Parallèlement, Pasqal devrait terminer en 2025 le successeur dénommé « Orion Gamma » qui proposera des portes « ultra haute-fidélité » et supportera jusqu’à 10 millions d’opérations. Enfin, Pasqal vise les 10 000 qubits à l’horizon 2028 avec une nouvelle architecture évolutive à qubits logiques grâce à un nouveau processeur quantique dénommé Vela. Avec cette machine, Pasqal espère améliorer les taux de répétition par 3 et prendre en charge jusqu’à 40 millions de « gate operations ».

La roadmap de Pasqal ne s’arrête cependant pas là. Les chercheurs de la Deeptech imaginent déjà pour 2027 un processeur Pegasus, toujours doté de 10 000 qubits, mais offrant une profondeur algorithmique bien supérieure allant jusqu’à 200 millions d’opérations.

Au-delà, Pasqal entrevoit un nouveau processeur quantique dénommé Centaurus, leur premier QPU à tolérance de panne intégrée (donc de génération FTQC, Fault Tolerant Quantum Computing) offrant cette fois 128 qubits logiques (fruits de la combinaison de milliers de qubits physiques) et 200 millions d’opérations de portes quantiques.

Du logiciel s’appuyant sur les réseaux de tenseurs

L’approche de Muliverse computing est logicielle. À la différence des fabricants de hardware, Multiverse s’appuie sur le formalisme mathématique des réseaux de tenseurs utilisés depuis plusieurs années par les physiciens qui travaillent sur la matière condensée. Les réseaux de tenseurs permettent de capturer l’essentiel de l’information d’un système quantique en matière de superposition ou d’intrication sur des ordinateurs traditionnels. Ils reviennent aujourd’hui très à la mode, car ils permettent de pousser les limites de l’informatique traditionnelle. L’entreprise fête aujourd’hui ses 5 ans avec 150 projets et 50 clients.

Certains sont des projets pilotes et d’autres sont en production. L’entreprise a également développé 2 librairies accessibles à tous, pour des travaux sur le machine learning et l’optimisation dans le HPC. L’une des nouveautés de l’entreprise se nomme Singularity. Il s’agit d’une technologie qui compresse sensiblement les LLMs au travers des réseaux de tenseurs.

Michel Kurek, CEO France de cette entreprise d’origine espagnole, précise : « nous avons noué un partenariat avec Pasqal et IBM et en utilisant la technologie supraconductrice d’IBM, nous donnons accès à plus de 120 qbits ». Singularity permet d’adresser les questions autour du deep learning, du machine learning et de l’optimisation des modèles d’IA.

On le voit : l’année qui se termine a été plutôt fructueuse et tous les acteurs fondent de grands espoirs pour les années à venir. Souhaitons qu’ils ne se trompent pas.

Pour approfondir sur HPC