
La stratégie d'IBM en matière d'informatique quantique entre dans une phase clé avec la présentation de deux nouveaux processeurs quantiques et des améliorations logicielles visant à stabiliser l'exécution des circuits. L'entreprise considère comme ses prochains jalons l'obtention d'un avantage quantique vérifiable et la mise au point des premiers systèmes tolérants aux pannes, renforçant ainsi le rôle conjoint du matériel et du logiciel.
Au-delà de l'annonce, l'approche intègre vérification communautaire et une fabrication à 300 mm pour accélérer le cycle de conception. Pour l'écosystème européen et espagnol, habitué à associer laboratoires quantiques et infrastructures de calcul haute performance, le message est clair : plus de matériel connecté, des outils plus précis et une feuille de route industrielle ambitieuse.
IBM Quantum Nighthawk : architecture et feuille de route
Le premier protagoniste est IBM Quantum Nighthawk, une puce dotée de 120 qubits et 218 coupleurs accordables Disposés en une grille carrée où chaque qubit est relié à quatre voisins, ces qubits offrent une connectivité supérieure aux générations précédentes. Cette connectivité permet de réaliser des circuits environ 30 % plus complexes tout en maintenant de faibles taux d'erreur.
Selon la feuille de route, la conception vise à évoluer vers des opérations à deux qubits, un aspect essentiel des performances réelles de ces systèmes. L'entreprise prévoit de construire 5 000 portes Elle possède deux qubits comme capacité de base et vise des expansions progressives dans les années à venir.
- Une connectivité plus dense qu'avec Heron, permettant de réduire le nombre de portes SWAP et d'obtenir une meilleure fidélité effective.
- Objectifs opérationnels : 5 000 portes (version de base), 7 500 (versions ultérieures), 10 000 et jusqu’à 15 000 avec des architectures à plus grande échelle.
- Livraison des premiers Nighthawks aux utilisateurs avant la fin de la période prévue par l'entreprise
L'objectif de Nighthawk est de placer le matériel dans un régime problématique pour la simulation classique. Dans cette région, la probabilité de démontrer un avantage quantique Elle augmente chaque fois que l'erreur est contenue et que le flux hybride quantique-classique est optimisé.
Vérification ouverte de l'avantage quantique
Pour éviter les affirmations unilatérales, IBM promeut, en collaboration avec Algorithmiq, le Flatiron Institute et BlueQubit, une initiative visant à… traqueur d'avantage quantique ouvertCet outil documente les progrès réalisés sur trois fronts : l’estimation des observables, les méthodes variationnelles et les tâches avec une vérification classique efficace, permettant à la communauté de suivre et d’examiner les résultats.
La proposition reconnaît que la barre est également fixée par les meilleurs algorithmes classiques disponibles. Par conséquent, les chercheurs sont invités à contribuer par de nouvelles expériences et simulations, un mécanisme qui renforce la validation et réduit la marge de conclusions hâtives, y compris dans les groupes de recherche européens.
Qiskit et HPC : le logiciel au service du matériel
La prise en charge logicielle inclut une mise à jour de Qiskit qui étend l'utilisation des circuits dynamiques et leur intégration au calcul haute performance. Grâce à ces modifications, IBM annonce… augmentation de 24 % de la précision à des échelles supérieures à 100 qubits et un nouveau modèle d'exécution avec C-API qui permet Atténuation des erreurs accélérée par le calcul haute performanceréduire de plus de 100 fois le coût d'obtention de résultats fiables.
Pour faciliter son adoption dans les infrastructures scientifiques, Qiskit intègre un Interface C++ ce qui permet de programmer directement dans des environnements HPC existants. Pour les versions futures, l'entreprise prévoit d'intégrer des bibliothèques d'apprentissage automatique et d'optimisation, en mettant l'accent sur simulation des équations différentielles et de l'hamiltoniendomaines liés à la physique et à la chimie computationnelles.
Lune quantique et corrections de bugs
Si Nighthawk vise à rapprocher l'avantage quantique, IBM Quantum Loon Il est conçu pour la tolérance aux pannes. Le processeur intègre les éléments nécessaires à une architecture de pratique de correction d'erreursy compris plusieurs couches de routage à faibles pertes qui permettent des connexions plus longues à l'intérieur de la puce (coupleurs en C) et des mécanismes de réinitialisation des qubits entre les cycles.
Parallèlement, IBM a démontré le décodage d'erreurs en temps réel avec Les codes qLDPC sont générés en moins de 480 nanosecondes.Une vitesse dix fois supérieure à celle de la méthode de référence précédente, atteinte en avance sur le calendrier prévu. C'est un point crucial : un décodage rapide réduit l'accumulation de bruit et permet un fonctionnement dans des environnements plus exigeants.
Fabrication sur plaquettes de 300 mm : accélération du développement
Le troisième pilier de l'annonce est industriel. La production principale de plaquettes de 300 mm L'entreprise a déménagé dans des installations de pointe au sein du complexe Albany NanoTech (État de New York). L'accès à des outils lithographiques ultramodernes réduit les délais de production et permet d'itérer simultanément sur un plus grand nombre de conceptions.
- Doubler la vitesse de la R&D en réduisant de moitié le temps nécessaire à la conception de nouveaux processeurs
- Complexité dix fois supérieure physique dans les puces fabriquées
- Capacité pour explorer plusieurs modèles simultanément sur la chaîne de production
Quelles sont les conséquences pour l'Espagne et l'Europe ?
Pour les universités, les centres de supercalcul et les entreprises européennes, la confluence de flux de travail hybride Elle consolide un flux de travail hybride où les logiciels haute performance sont aussi essentiels que le qubit. La validation ouverte et la réduction des coûts de correction des erreurs sont des leviers précieux pour les projets disposant de ressources limitées.
Grâce à des feuilles de route explicites et à des mécanismes de vérification publics, le débat passe de la promesse à la mesure. Dates publiques, indicateurs comparables et projets pilotes concrets Ils définiront les prochaines étapes pour évaluer si les progrès réalisés en matière de connectivité, de correction des erreurs et de fabrication se traduisent par des charges de travail scientifiques et commerciales plus importantes.
L'association de Nighthawk, Loon, Qiskit avec le HPC et la fabrication de 300 mm brosse un tableau dans lequel amélioration durable Dans les processeurs quantiques, cela pourrait s'accélérer, à condition que le contrôle des erreurs et la vérification indépendante suivent le rythme du matériel et du logiciel.