L'informatique quantique promet de résoudre en quelques minutes des problèmes qui prendraient des millénaires aux supercalculateurs classiques. En 2026, cette technologie quitte progressivement les laboratoires pour entrer dans une phase d'industrialisation. Cet article fait le point sur les principes fondamentaux, les technologies concurrentes, les acteurs majeurs du secteur, les applications concrètes qui se dessinent et les défis — notamment en matière de cybersécurité — que cette révolution technologique impose.

Sommaire

En décembre 2024, Google a annoncé que son processeur Willow, doté de 105 qubits, avait réalisé en moins de cinq minutes un calcul qui aurait nécessité dix septillions d'années à un supercalculateur classique. Cette démonstration, bien que portant sur un problème artificiellement conçu pour favoriser l'approche quantique, a marqué un tournant symbolique. Elle a confirmé que la puissance de calcul quantique ne relève plus de la théorie, mais d'une réalité mesurable et reproductible.

Pourtant, le chemin entre une démonstration de laboratoire et des applications industrielles concrètes reste semé d'obstacles considérables. Les qubits actuels sont fragiles, sujets aux erreurs et nécessitent des conditions de fonctionnement extrêmes — des températures proches du zéro absolu pour certaines technologies, un vide poussé pour d'autres. Le nombre de qubits exploitables après correction d'erreurs reste très inférieur à ce que les applications pratiques exigent.

En 2026, l'informatique quantique se situe à un point d'inflexion. Les investissements mondiaux dans le secteur dépassent 40 milliards de dollars. Les gouvernements européens, américains et chinois ont lancé des programmes nationaux massifs. Les géants technologiques comme IBM, Google et Microsoft rivalisent d'annonces sur leurs feuilles de route. Et une nouvelle génération de startups européennes — IQM en Finlande, Pasqal en France, PsiQuantum aux États-Unis — apporte des approches technologiques alternatives qui pourraient redistribuer les cartes. Pour mesurer l'impact potentiel sur les métiers du numérique, consultez notre guide sur l'intelligence artificielle, domaine étroitement lié au calcul quantique.

Principes fondamentaux : qubits, superposition et intrication

Pour comprendre l'informatique quantique, il faut d'abord saisir ce qui la distingue fondamentalement de l'informatique classique. Un ordinateur traditionnel manipule des bits — des unités d'information qui valent soit 0, soit 1. Chaque opération logique (addition, comparaison, stockage) repose sur cette binarité absolue. Un processeur moderne exécute des milliards de ces opérations par seconde, mais il les traite séquentiellement ou en parallèle limité.

Le qubit, unité fondamentale du calcul quantique, obéit à des règles radicalement différentes. Grâce à la superposition quantique, un qubit peut exister simultanément dans un état combinant 0 et 1, avec des probabilités respectives décrites par des amplitudes complexes. Ce n'est pas qu'il est « entre » 0 et 1 comme un signal analogique — c'est qu'il est véritablement dans les deux états à la fois, jusqu'au moment de la mesure qui le force à « choisir » l'un ou l'autre. Ce phénomène, décrit par les équations de la mécanique quantique depuis les années 1920, est contre-intuitif mais rigoureusement vérifié par un siècle d'expériences.

La conséquence directe de la superposition est exponentielle. Deux qubits en superposition représentent simultanément quatre états (00, 01, 10, 11). Trois qubits en représentent huit. Dix qubits en représentent 1 024. Et 300 qubits en superposition parfaite représenteraient plus d'états qu'il n'y a d'atomes dans l'univers observable. Cette croissance exponentielle est la source théorique de la puissance du calcul quantique : au lieu d'explorer les solutions une par une, un algorithme quantique peut les manipuler toutes simultanément.

L'intrication quantique — ou « entanglement » — est le second pilier. Lorsque deux qubits sont intriqués, la mesure de l'un détermine instantanément l'état de l'autre, quelle que soit la distance qui les sépare. Einstein qualifiait ce phénomène d'« action fantomatique à distance », mais les expériences d'Alain Aspect (prix Nobel 2022) ont définitivement confirmé sa réalité. Dans un ordinateur quantique, l'intrication permet de créer des corrélations entre qubits qui n'ont aucun équivalent classique. C'est ce mécanisme qui permet aux algorithmes quantiques de tirer parti de la superposition pour résoudre certains problèmes exponentiellement plus vite.

La mesure quantique constitue le troisième concept essentiel. Observer un qubit détruit sa superposition et le force dans un état défini — 0 ou 1 — avec une probabilité déterminée par son état quantique. Un algorithme quantique doit donc être conçu de manière à ce que les interférences entre les différents chemins de calcul amplifient la probabilité de la bonne réponse et atténuent celles des mauvaises. C'est un art subtil qui exige une maîtrise profonde de l'algèbre linéaire et de la théorie de l'information quantique.

En pratique, les portes quantiques — l'équivalent des portes logiques classiques — manipulent les qubits par des rotations dans un espace mathématique complexe appelé sphère de Bloch. Un circuit quantique est une séquence de ces portes appliquées à un ensemble de qubits. L'algorithme de Shor (factorisation de grands nombres), l'algorithme de Grover (recherche dans des bases de données non structurées) et les algorithmes variationnels (optimisation et simulation) sont les trois familles d'algorithmes quantiques les plus étudiées et les plus prometteuses.

Les technologies quantiques en compétition

Il n'existe pas une seule manière de construire un ordinateur quantique. Plusieurs approches technologiques coexistent, chacune avec ses forces et ses limites. En 2026, trois technologies dominent la course : les qubits supraconducteurs, les ions piégés et les photons.

Les qubits supraconducteurs constituent l'approche la plus mature et la plus médiatisée. Utilisés par IBM et Google, ces qubits sont des circuits électriques fabriqués à partir de matériaux supraconducteurs (généralement de l'aluminium sur un substrat de silicium) refroidis à environ 15 millikelvins — soit 0,015 degré au-dessus du zéro absolu. À cette température, les courants électriques circulent sans résistance et les effets quantiques deviennent exploitables. Le principal avantage de cette technologie est sa compatibilité avec les procédés de fabrication des semi-conducteurs classiques, ce qui laisse espérer une montée en échelle industrielle. Son inconvénient majeur : la fragilité des qubits, dont la cohérence — le temps pendant lequel ils maintiennent leur état quantique — ne dépasse pas quelques centaines de microsecondes.

Intérieur d'un ordinateur quantique cryogénique

Les ions piégés représentent la seconde approche majeure. Des atomes individuels (souvent de l'ytterbium ou du calcium) sont piégés dans un champ électromagnétique dans le vide et manipulés par des faisceaux laser. Cette technologie, portée par des entreprises comme IonQ et Quantinuum (issue de Honeywell), offre des qubits de très haute qualité : des temps de cohérence pouvant atteindre plusieurs minutes et des taux d'erreur extrêmement bas (inférieurs à 0,1 % par opération). Le revers de la médaille est la lenteur des opérations — les portes quantiques sur ions piégés sont mille fois plus lentes que sur des circuits supraconducteurs — et la difficulté à augmenter le nombre de qubits au-delà de quelques dizaines dans un seul piège.

La troisième voie, photonique, utilise des particules de lumière comme support de l'information quantique. Des entreprises comme PsiQuantum (États-Unis), Xanadu (Canada) et Quandela (France) développent des processeurs quantiques photoniques qui fonctionnent à température ambiante — un avantage considérable en termes de coût et de complexité d'infrastructure. Les photons sont naturellement résistants à la décohérence et se déplacent à la vitesse de la lumière, ce qui les rend idéaux pour les réseaux quantiques. Le défi principal est la difficulté de faire interagir deux photons entre eux, une opération essentielle pour créer des portes quantiques universelles. Des approches comme la « mesure en boucle » (measurement-based quantum computing) contournent partiellement ce problème.

D'autres technologies émergent. Les qubits topologiques, poursuivis par Microsoft, promettent une résistance intrinsèque aux erreurs grâce aux propriétés topologiques de particules exotiques appelées anyons. Après des années de résultats contestés, Microsoft a annoncé début 2025 avoir observé des signatures convaincantes de ces anyons dans des dispositifs à base d'InAs/Al. Les atomes neutres, manipulés par des pinces optiques dans un réseau lumineux, constituent une approche portée par Pasqal en France et Atom Computing aux États-Unis. Cette technologie permet de piéger des centaines d'atomes dans des configurations géométriques arbitraires, offrant une voie prometteuse vers la simulation quantique de molécules et de matériaux.

Aucune de ces technologies n'a encore prouvé sa supériorité définitive. La course reste ouverte, et la diversité des approches est probablement bénéfique : chaque technologie pourrait s'avérer optimale pour une catégorie d'applications différente. Les qubits supraconducteurs pour le calcul rapide, les ions piégés pour la précision, les photons pour les communications quantiques, les atomes neutres pour la simulation.

Acteurs majeurs : IBM, Google, IQM et les autres

Le paysage industriel de l'informatique quantique en 2026 est dominé par une poignée d'acteurs majeurs dont les stratégies et les feuilles de route divergent sensiblement.

IBM reste le leader en termes de maturité industrielle. Son processeur Heron, lancé fin 2024, embarque 156 qubits supraconducteurs avec des taux d'erreur significativement réduits par rapport aux générations précédentes. La feuille de route d'IBM est la plus détaillée du secteur : le processeur Flamingo (2025-2026) introduit la connexion modulaire entre plusieurs puces quantiques, permettant de combiner la puissance de plusieurs processeurs. L'objectif déclaré est d'atteindre un système de 100 000 qubits d'ici 2033. IBM exploite également Qiskit, le framework de programmation quantique le plus utilisé au monde avec plus de 500 000 utilisateurs, et propose un accès cloud à ses machines via IBM Quantum Platform.

Google a frappé un grand coup avec Willow fin 2024, démontrant pour la première fois qu'ajouter des qubits pouvait réduire le taux d'erreurs global — une condition indispensable pour la correction d'erreurs quantiques à grande échelle. Cette avancée, publiée dans Nature, a été saluée comme un jalon historique. La stratégie de Google se concentre sur la démonstration de l'avantage quantique utile — c'est-à-dire résoudre un problème réel plus efficacement qu'un supercalculateur classique — qu'elle espère atteindre avant 2030. Google développe Cirq, un framework open source complémentaire de Qiskit, et intègre progressivement l'accès quantique dans Google Cloud.

En Europe, IQM Quantum Computers s'est imposé comme le champion continental. Cette startup finlandaise fondée en 2019 fabrique des processeurs quantiques supraconducteurs et les déploie dans des centres de calcul haute performance. IQM a livré le premier ordinateur quantique du Centre de supercalcul de Jülich en Allemagne, et développe des systèmes pour le VTT Technical Research Centre of Finland et l'Espagne. Avec plus de 200 millions d'euros levés, IQM incarne l'ambition européenne de souveraineté technologique dans le domaine quantique. La France n'est pas en reste : Pasqal, spin-off de l'Institut d'Optique, développe des processeurs à atomes neutres et a levé 100 millions d'euros. Quandela, issue du Centre de nanosciences et de nanotechnologies, construit des processeurs photoniques et a installé son premier système, Moselle, au CEA.

Microsoft a adopté une stratégie atypique en pariant sur les qubits topologiques, théoriquement plus stables mais technologiquement les plus difficiles à réaliser. Après des années de scepticisme, les résultats de 2025 ont redonné de la crédibilité à cette approche. En attendant, Microsoft propose Azure Quantum, une plateforme cloud qui agrège l'accès aux machines de IonQ, Quantinuum et Pasqal. Amazon suit une stratégie similaire avec Braket, son service d'accès aux machines quantiques de différents fournisseurs.

La Chine, dont les programmes sont moins visibles en raison de la publication scientifique plus contrôlée, n'en est pas moins active. Le processeur Jiuzhang, basé sur la photonique, et Zuchongzhi, supraconducteur, ont tous deux revendiqué des résultats d'avantage quantique. Le gouvernement chinois investit massivement dans un réseau de communication quantique reliant Pékin à Shanghai sur plus de 2 000 kilomètres, le plus long au monde.

Applications potentielles de l'informatique quantique

L'informatique quantique ne remplacera pas les ordinateurs classiques. Elle les complétera sur des catégories de problèmes spécifiques où la structure mathématique du problème permet aux algorithmes quantiques de surpasser les approches classiques. Plusieurs domaines concentrent les espoirs et les investissements.

Comparaison calcul classique versus quantique

La simulation moléculaire est considérée comme le premier domaine où l'avantage quantique utile se manifestera. Simuler le comportement d'une molécule complexe — interactions entre électrons, configurations énergétiques, réactivité chimique — est un problème fondamentalement quantique. Un ordinateur classique ne peut simuler qu'environ 50 particules quantiques avant de manquer de mémoire (la taille de l'espace des états double à chaque particule ajoutée). Un ordinateur quantique pourrait simuler ces systèmes nativement, ouvrant la voie à la découverte de nouveaux médicaments, de catalyseurs industriels, de matériaux supraconducteurs à température ambiante ou de batteries plus performantes. Des entreprises pharmaceutiques comme Roche et Merck financent déjà des programmes de recherche en chimie quantique.

L'optimisation combinatoire constitue le second domaine prometteur. De nombreux problèmes industriels — planification logistique, optimisation de portefeuilles financiers, routage de véhicules, allocation de ressources dans les réseaux télécoms — reviennent à trouver la meilleure solution parmi un nombre astronomique de combinaisons possibles. Les algorithmes quantiques comme QAOA (Quantum Approximate Optimization Algorithm) et le recuit quantique (proposé par D-Wave) offrent des pistes pour explorer ces espaces de solutions plus efficacement. En 2026, des preuves de concept ont été réalisées avec des compagnies aériennes (optimisation des rotations d'équipages), des banques (gestion de risque en temps réel) et des opérateurs logistiques (optimisation des tournées de livraison).

L'intelligence artificielle quantique — ou quantum machine learning — explore la possibilité d'accélérer l'entraînement et l'exécution de modèles d'apprentissage automatique grâce au calcul quantique. Des algorithmes comme le quantum kernel estimation et les réseaux de neurones variationnels quantiques (VQE) sont activement étudiés. Toutefois, en 2026, aucun avantage quantique clair n'a encore été démontré pour des tâches de machine learning pratiques. Le domaine reste largement exploratoire, et les chercheurs débattent de la possibilité même d'un avantage quantique significatif pour l'apprentissage automatique à grande échelle.

La science des matériaux bénéficierait directement de la simulation quantique. Comprendre les propriétés électroniques des matériaux à l'échelle atomique permettrait de concevoir des semi-conducteurs plus performants, des matériaux pour l'énergie solaire, des alliages légers pour l'aéronautique ou des supraconducteurs à haute température. Ces applications intéressent directement les industriels de l'automobile, de l'aérospatiale et de l'énergie.

La menace pour la cryptographie

L'informatique quantique pose un défi existentiel à la cybersécurité telle que nous la connaissons. La quasi-totalité des protocoles de chiffrement asymétrique utilisés sur internet — RSA, Diffie-Hellman, courbes elliptiques (ECC) — reposent sur la difficulté de certains problèmes mathématiques pour les ordinateurs classiques : factorisation de grands nombres pour RSA, logarithme discret pour Diffie-Hellman et ECC. Or, l'algorithme de Shor, publié en 1994 par le mathématicien Peter Shor, prouve qu'un ordinateur quantique universel suffisamment puissant pourrait résoudre ces problèmes en temps polynomial — autrement dit, casser ces chiffrements en quelques heures au lieu des milliards d'années nécessaires à un supercalculateur classique. Pour approfondir les enjeux de sécurité numérique, notre guide sur la cybersécurité offre un panorama complet des menaces actuelles.

La question n'est pas de savoir si cette menace se concrétisera, mais quand. Les experts estiment qu'un ordinateur quantique capable de casser RSA-2048 nécessiterait entre 4 000 et 20 000 qubits logiques corrigés — soit plusieurs millions de qubits physiques avec les taux d'erreur actuels. En 2026, les meilleurs systèmes disposent de quelques centaines de qubits physiques. L'horizon le plus optimiste situe la menace vers 2035, le plus pessimiste vers 2045. Mais une stratégie d'attaque dite « harvest now, decrypt later » rend le problème urgent dès aujourd'hui : des acteurs étatiques pourraient intercepter et stocker des communications chiffrées actuelles en attendant de disposer d'un ordinateur quantique pour les déchiffrer.

Face à cette menace, la communauté cryptographique a réagi. Le NIST (National Institute of Standards and Technology) américain a lancé en 2016 un processus de standardisation de la cryptographie post-quantique (PQC). En août 2024, le NIST a publié les trois premiers standards : ML-KEM (anciennement CRYSTALS-Kyber) pour l'échange de clés, ML-DSA (anciennement CRYSTALS-Dilithium) et SLH-DSA (anciennement SPHINCS+) pour les signatures numériques. Ces algorithmes reposent sur des problèmes mathématiques considérés comme résistants aux attaques quantiques : réseaux euclidiens (lattices), fonctions de hachage et codes correcteurs d'erreurs.

La migration vers la cryptographie post-quantique représente un chantier colossal. Chaque certificat TLS, chaque VPN, chaque application de messagerie, chaque système bancaire, chaque infrastructure gouvernementale doit être mis à jour. Les clés post-quantiques sont significativement plus grandes que les clés actuelles (les clés ML-KEM font environ 1 500 octets contre 32 octets pour X25519), ce qui impacte les performances réseau. Google et Apple ont déjà intégré des protections hybrides (classique + post-quantique) dans Chrome et iMessage. Signal a déployé le protocole PQXDH en 2024. Mais la grande majorité des systèmes d'entreprise reste vulnérable.

L'Europe a adopté une position proactive. L'ANSSI (Agence nationale de la sécurité des systèmes d'information) recommande depuis 2023 une approche hybride combinant algorithmes classiques et post-quantiques pendant la phase de transition. L'initiative EuroQCI vise à déployer un réseau de distribution quantique de clés (QKD) à l'échelle européenne, utilisant les propriétés quantiques de la lumière pour garantir la sécurité des communications — une approche complémentaire à la PQC algorithmique.

Perspectives et feuille de route vers 2030

L'informatique quantique en 2026 se trouve dans une phase comparable à celle de l'informatique classique dans les années 1950 : les principes sont prouvés, les premières machines fonctionnent, mais l'utilité pratique reste limitée et le chemin vers la démocratisation est long. Plusieurs défis techniques majeurs doivent être surmontés.

La correction d'erreurs quantiques est le premier verrou. Les qubits physiques actuels sont intrinsèquement bruités : chaque opération introduit une petite erreur, et la cohérence quantique se dégrade en quelques microsecondes à millisecondes. Pour exécuter des algorithmes utiles, il faut combiner de nombreux qubits physiques pour former un qubit logique corrigé. Les estimations actuelles situent le ratio entre 1 000 et 10 000 qubits physiques pour un qubit logique, selon la technologie. Cela signifie qu'un ordinateur quantique de 1 000 qubits logiques nécessiterait entre 1 et 10 millions de qubits physiques. La démonstration de Google avec Willow — où l'ajout de qubits réduisait le taux d'erreur — est un premier pas encourageant, mais le chemin reste long.

La montée en échelle constitue le deuxième défi. Fabriquer des centaines de qubits de qualité suffisante dans une seule puce est un exploit d'ingénierie. Fabriquer des millions de qubits interconnectés, avec un contrôle individuel de chacun, relève d'un défi sans précédent dans l'histoire de la microélectronique. Les approches modulaires — connecter plusieurs processeurs quantiques entre eux via des liens quantiques — sont explorées par IBM (Flamingo), IQM et d'autres, mais soulèvent des problèmes de latence et de fidélité de transmission. L'interaction entre calcul quantique et technologies émergentes comme le edge computing et la 5G pourrait jouer un rôle dans la distribution du calcul quantique.

Le développement logiciel est le troisième front. Programmer un ordinateur quantique ne ressemble en rien à la programmation classique. Les développeurs doivent penser en termes de matrices unitaires, d'interférences constructives et destructives, de mesures probabilistes. Les algorithmes quantiques connus sont peu nombreux et spécialisés. Former une génération d'ingénieurs capables de concevoir des applications quantiques utiles est un enjeu majeur que les universités et les grandes entreprises technologiques commencent à peine à adresser.

Les feuilles de route des acteurs majeurs donnent néanmoins des raisons d'être optimiste. IBM vise 100 000 qubits d'ici 2033. Google ambitionne un ordinateur quantique utile avant 2030. IQM et Pasqal accélèrent la construction de systèmes européens intégrés dans les supercalculateurs nationaux. Les investissements publics se renforcent : le plan France 2030 consacre 1,8 milliard d'euros aux technologies quantiques, l'Union européenne a lancé le Quantum Flagship doté d'un milliard d'euros, et les États-Unis ont renouvelé le National Quantum Initiative avec un financement accru.

Le scénario le plus probable pour la prochaine décennie est un développement progressif, sans rupture soudaine. Les premiers cas d'usage industriels — simulation moléculaire, optimisation logistique — devraient émerger entre 2028 et 2032. La cryptographie post-quantique deviendra un standard dans les cinq prochaines années, bien avant que la menace quantique ne devienne réelle. L'accès au calcul quantique se démocratisera via le cloud, comme le calcul GPU l'a fait avant lui. Et les ordinateurs quantiques ne remplaceront pas les ordinateurs classiques : ils les compléteront pour des tâches spécifiques où les lois de la physique quantique offrent un avantage fondamental.

L'informatique quantique n'est ni un mirage ni une panacée. C'est une technologie fondamentalement nouvelle, enracinée dans la physique la plus profonde de l'univers, qui ouvre des possibilités de calcul inaccessibles aux machines classiques. Les entreprises et les institutions qui investissent aujourd'hui dans la compréhension et l'expérimentation de cette technologie seront les mieux placées pour en tirer parti lorsque l'avantage quantique pratique deviendra réalité. Et ce moment approche.