CPU quantique : IBM présente Osprey, avant de changer de technique
Comme prévu, la puce quantique de 2022 a trois fois plus de qubits que celle de 2021 et trois fois moins que celle de 2023. Mais pour gagner en utilité, IBM devra s’orienter vers des architectures plus parallélisées.
Le calendrier est respecté. IBM a profité de son événement annuel Quantum Summit 2022 pour montrer une version assemblée d’Osprey, son dernier processeur quantique, qui a un « potentiel de calcul » de 433 qubits. Il succède à Eagle, présenté il y a un an avec 127 qubits et il précède Condor, qui doit être montré dans un an avec un potentiel de calcul de 1 121 qubits. (Photo ci-dessus : Dario Gil, Jay Gambetta et Jerry Chow tiennent le nouveau processeur à 433 qubits « IBM Osprey » ©IBM).
Toutes ces sorties sont scrupuleusement planifiées depuis 2020, à l’époque où IBM présentait une puce quantique Hummingbird de 65 qubits. L’agenda, récemment mis à jour, court à présent jusqu’en 2025, date de fabrication d’une puce Kookaburra qui doit atteindre 4 158 qubits.
Mais contrairement à l’interprétation rapide que certains médias grand public ont faite de cette annonce, il est prématuré de parler de processeur quantique le plus puissant du monde. La quantité de bits atteinte sur Osprey ne témoigne pas – encore – d’une quelconque performance.
Elle indique juste que le processus de fabrication mis au point par IBM, qui consiste à faire tenir ensemble des qubits, s’améliore comme prévu. Est-ce que ce processus va permettre de construire des puces quantiques qui servent à quelque chose ? Personne n’en sait encore rien. Pour l’heure, les processeurs quantiques ne rivalisent toujours pas avec la puissance des premiers microprocesseurs des années 1970, tout en coûtant beaucoup, beaucoup plus cher que les processeurs actuels, lesquels sont environ un million de fois plus performants que leurs aînés.
Un nombre de qubits qui ne dit rien de la puissance d’Osprey
Les 433 qubits du processeur quantique Osprey sont en l’occurrence 433 molécules d’aluminium qu’IBM réussit à faire interagir dans une cuve cryogénisée à 15 millikelvins (-273,13 °C). L’exploit d’IBM est triple :
- il peut mettre les électrons des atomes qui composent ces molécules en état de superposition quantique (ils ont théoriquement tous leurs états énergétiques à la fois),
- il peut intriquer des électrons de différents atomes (ce qui se passe sur un électron dans une molécule se passe immédiatement sur un autre électron dans une autre molécule)
- et il peut geler les électrons d’une molécule à un niveau d’énergie définitif (la décohérence) quand il envoie un signal sur cette molécule.
Dans le principe, le signal que l’on envoie aux molécules est l’algorithme, tandis que le niveau d’énergie qui se fixe à la fin dans les molécules d’aluminium est le résultat de l’algorithme. Alors qu’un ordinateur classique doit évaluer toutes les possibilités pour trouver la solution à un problème, l’ordinateur quantique trouve immédiatement la solution qui se combine le mieux au problème. Sauf que tout ceci est très théorique.
En pratique, un algorithme entier ne tient pas sur un seul signal, il se compose d’un enchaînement d’instructions. Problème, une fois qu’un qubit a été gelé dans un état, il ne peut plus servir à résoudre les instructions suivantes, d’où la nécessité de multiplier les qubits.
Si l’on devait faire un parallèle avec les processeurs classiques, un processeur quantique de 433 qubits ne correspondrait pas à un processeur qui aurait un bus de données large de 433 bits (ce qui serait énorme, les CPU actuels fonctionnant par lots de 64 bits). Il correspondrait à un processeur qui aurait une mémoire interne de seulement 433 bits, soit une cinquantaine d’octets, ce qui est absolument ridicule.
À titre comparatif, c’est moins que le processeur 8 bits 8 080 qu’Intel a commercialisé en 1974 et dont les registres cumulaient 88 octets. Dans le meilleur des cas, un algorithme qui remplit tous ces registres sert juste à comparer quatre valeurs comprises entre 0 et 255 et à déterminer laquelle est la plus grande. C’est à peu près tout ce que le processeur Osprey sait faire, avec un retard, donc, d’environ 50 ans sur les processeurs actuels. Et encore, s’il fonctionne.
Car il demeure un problème dans le processus de fabrication des puces quantiques. Certaines particules se fixent dans un état énergétique aléatoire avant même qu’elles aient reçu un signal pour le faire. Et pour cause : à l’échelle microscopique, il suffit d’un photon sorti d’on ne sait où pour tout déstabiliser. La cuve de cryogénisation d’IBM est censée éliminer tous les photons nomades issus de la température ambiante. Mais l’injection d’un algorithme dans la puce quantique provoque rarement l’émission d’un seul photon par signal.
Pire, le changement d’état énergétique des électrons dans les molécules d’aluminium provoque lui aussi l’émission de photons dans le système. À l’heure actuelle, une puce quantique est excessivement instable. Si bien que multiplier le nombre de qubits ne sert pas vraiment à augmenter le potentiel de calcul, mais plutôt à parer aux risques d’instabilité. Cela dit, IBM n’a pas encore la certitude que l’augmentation des qubits dans un processeur quantique ne pose pas aussi le risque d’augmenter l’instabilité des qubits.
Vers des clusters de processeurs quantiques
Pour résoudre ces problèmes, IBM travaille, d’une part, avec le Coréen LG Electronics sur l’injection des données sans parasites depuis l’extérieur. D’autre part, il réoriente ses développements quantiques sur la conception de puces montées en cluster, dans le but de soit augmenter la fiabilité (redondance), soit augmenter le potentiel de calcul (répartition de charge).
Ainsi, en même temps que Condor et sa matrice de 1 121 qubits en 2023, IBM proposera une puce Heron de seulement 133 qubits. C’est peu, mais elle sera installable en plusieurs exemplaires derrière un répartiteur de charge, pour offrir in fine à peu près autant de qubits aux algorithmes. À voir lequel des deux designs souffrira le moins de décohérences intempestives. En 2024, la puce Flamingo proposera, sur le même principe, un total de 1 356 qubits répartis sur trois processeurs quantiques montés en parallèle, chacun ayant 452 qubits.
Toujours en 2024 arrivera une architecture totalement différente : le processeur quantique Crossbill. Il aura officiellement 408 qubits disponibles pour les algorithmes, mais son circuit comptera trois fois plus de molécules d’aluminium. L’idée consiste à exécuter en parallèle trois copies d’un seul algorithme pour, en sortie, ne conserver que les résultats similaires dans au moins deux molécules d’aluminium.
Enfin, en 2025, la puce Kookaburra mixera les deux approches. Totalisant 4 158 qubits disponibles pour les algorithmes, elle sera constituée de trois puces de 1 386 qubits qui se répartiront les étapes d’un algorithme. Et ces puces auront aussi trois jeux de molécules d’aluminium qui travailleront en même temps, pour pouvoir comparer les états d’énergie en sortie et ainsi éliminer les résultats isolés qui seront vraisemblablement issus d’une erreur.
Pour donner une estimation plus claire de la puissance de calcul de ses ordinateurs quantiques, IBM a inventé un barème, baptisé le volume quantique. Il correspond au nombre de décohérences quantiques dont on peut raisonnablement penser qu’elles se sont passées comme prévu lors de l’exécution d’un algorithme. Ce score n’est défini qu’au terme d’un très grand nombre d’essais, menés sur plusieurs années, au rythme d’incessants réglages et de reconfigurations inspirées.
Par exemple, le meilleur volume quantique dont peut se targuer aujourd’hui IBM est le score de 512. C’est celui calculé tout récemment sur un cluster de plusieurs puces Falcon montées en parallèle. Les puces quantiques Falcon sont celles qui n’ont que 27 qubits et qu’IBM a mises au point en 2019. Autant dire qu’il faudra attendre un certain temps avant de savoir ce que vaut vraiment Osprey.