Physique quantique : « on confond souvent intrication et non-localité »

il y a 11 hour 1

C’est probablement sur les récifs de l’intrication quantique que notre intuition classique se fracasse de la façon la plus manifeste quand on essaye de comprendre la mécanique quantique. Hippolyte Dourdent nous guide sur ce chemin qui met notre vision du monde à rude épreuve. La route est semée de débats épiques, entre Albert Einstein et Niels Bohr, de fulgurances théoriques, avec les inégalités de Bell, et de prouesses expérimentales, en particulier celles de l’équipe d’Alain Aspect. Dans ce troisième volet de l’entretien avec Hippolyte Dourdent, nous plongeons dans un univers éminemment abstrait… mais non moins fertile, car il a donné naissance à une révolution technologique où l’intrication quantique est garante de la sécurité dans les communications, indispensable au fonctionnement des ordinateurs quantiques, et ferment de bien d’autres idées.

Qu’est-ce que l’intrication quantique ?

Pour le dire d’abord de façon rigoureuse et concise, l’intrication quantique, c’est une non-séparabilité mathématique. C’est le fait d’avoir une addition de phrases quantiques globales portant sur un couple de systèmes, que l’on ne peut pas séparer (techniquement, on dit factoriser) en deux phrases quantiques locales portant chacune sur un des membres du couple.

Rappelons d’abord qu’un système quantique peut être dans une superposition d’états, qui est une addition de phrases quantiques. Cette superposition encode les différentes réponses possibles aux questions – les mesures – que l’on adresse à un système quantique. Ce système peut être décrit par « l’état 1 » plus « l’état 2 », à l’instar d’une particule pouvant voyager selon « un chemin 1 » plus « un chemin 2 ». Comme nous l’avons vu dans la partie précédente, le sens accorder à ce plus dépend de la façon dont on interprète la nature de ces phrases quantiques, et de la mécanique quantique plus généralement.

Pour obtenir une phrase intriquée, on a besoin d’au moins deux systèmes, A et B, auxquels sont associées des phrases quantiques locales, une sur A et une sur B. Nous allons ensuite considérer une superposition quantique avec l’opérateur plus : on aura « une phrase quantique sur A » et « une phrase quantique sur B » plus « une autre phrase quantique sur A » et « une autre phrase quantique sur B ». Tout dépend alors du contenu des phrases. Dans certains cas, il est possible de reformuler ce long énoncé et de séparer les phrases sur A d’un côté et celles sur B de l’autre. Il y a alors séparabilité, les propriétés de A sont totalement décorrélées de celles de B. Mais, dans d’autres cas, ce réarrangement est impossible, les phrases quantiques sur A et B sont inséparables. Cette non-séparabilité induit des corrélations entre les propriétés de A et de B, c’est ce que l’on nomme « l’intrication ».

Pouvez-vous donner un exemple d’intrication quantique ?

Le chat de Schrödinger sert souvent à illustrer la superposition des états, mais c’est avant tout une histoire d’intrication. Dans cette expérience de pensée, le destin du chat dépend du comportement d’une particule. Si on décrit le couple chat-particule, on obtient la formule suivante : (« particule désintégrée » et « chat mort ») plus (« particule non désintégrée » et « chat vivant »).

Dans cet exemple, on ne peut pas mettre d’un côté les phrases quantiques sur la particule et de l’autre celles sur le chat. On voit bien que les propriétés de la particule et celles du chat sont parfaitement corrélées. Leur destin est intimement lié… intriqué !

Erwin Schrödinger a identifié ce phénomène en 1935 et l’a mentionné dans une lettre à Albert Einstein. En soi, il n’est pas forcément si spectaculaire. Dans certaines interprétations, l’intrication apparaît à chaque fois qu’une mesure quantique a lieu. Alors pourquoi s’y attarder autant ? L’histoire devient bien plus intéressante quand les systèmes A et B sont intriqués et éloignés l’un de l’autre, sans possibilité de communiquer.

Que se passe-t-il dans ce cas ?

En analysant les conséquences de l’intrication avec des systèmes qui ne peuvent pas communiquer, Albert Einstein et ses deux collègues Boris Podolsky et Nathan Rosen sont arrivés à la conclusion que la mécanique quantique pourrait être incomplète.

Le 15 mai 1935, le trio a publié un article dans lequel ils ont développé leur argumentation. Celle-ci reposait sur un « critère de réalité » qu’ils ont défini de la façon suivante : « Si, sans perturber de quelque manière que ce soit un système, nous pouvons prédire avec certitude la valeur d’une grandeur physique, alors il existe un élément de réalité physique correspondant à cette grandeur physique. » Les chercheurs ont alors imaginé une expérience de pensée avec deux particules intriquées, en supposant implicitement un critère de « localité », nous y reviendrons. Ils ont argumenté qu’on pourrait connaître la position exacte de la seconde particule en mesurant celle de la première, associant ainsi un élément de réalité à cette observable. Et on pourrait en faire de même avec la vitesse. Mais cela pose un problème, car cela entre en contradiction avec le principe d’indétermination énoncé par Werner Heisenberg. C’est le fameux paradoxe EPR, du nom de ses trois auteurs. À noter que l’article a été rédigé par Podolsky, et qu’il ne représente pas tout à fait le point de vue d’Einstein. Dans une lettre à Schrödinger, ce dernier a exposé son propre argument d’incomplétude de la théorie quantique, qui ne reposait pas sur le principe d’Heisenberg.

Si la théorie quantique est incomplète, il devrait être possible d’y ajouter ce qu’on nomme des « variables cachées », des phrases classiques supplémentaires, inaccessibles, mais qui déterminent le résultat des mesures. Niels Bohr a répliqué cinq mois après l’article EPR avec une publication portant le même titre et réfutant l’incomplétude de la mécanique quantique, en critiquant le caractère flou du critère de réalité. Mais le débat ne passionne pas les foules, et la question en est restée (presque) là.

En quoi consiste la « localité » ?

« Localité » peut désigner plusieurs choses, et les spécialistes ne tombent pas toujours d’accord sur le choix de leur définition avant de débattre, ce qui rajoute parfois encore plus de confusion à une question délicate.

Historiquement, « localité » désignait ce que l’on appelle plutôt aujourd’hui « l’indépendance des paramètres » : considérons un scénario où deux expérimentateurs, Alice et Bob, reçoivent respectivement les particules A et B, et qu’il leur est impossible de communiquer entre eux. Ils effectuent chacun une mesure sur leur particule, puis répètent l’expérience de nombreuses fois. À la fin, l’étude statistique leur permet de découvrir des corrélations entre leurs résultats de mesure. Comme Alice et Bob ne peuvent pas communiquer, on suppose qu’une variable cachée classique permet de rendre compte de ces corrélations. L’indépendance des paramètres stipule alors que la probabilité pour Alice d’obtenir un quelconque résultat d’une mesure sur la particule A étant donné la variable cachée est complètement indépendante du choix de mesure réalisée par Bob sur la particule B, et vice versa. Autrement dit, il n’y a pas d’influence mystérieuse, « d’action fantôme à distance » – qui serait plus rapide que la lumière tout en étant non-observable et inutilisable puisque Alice et Bob ne peuvent pas communiquer –, entre le choix de mesure d’un expérimentateur et le résultat de mesure de l’autre.

On peut également considérer un autre type d’indépendance, qui stipule que les résultats des mesures sur A et B ne peuvent pas non plus s’influencer mutuellement étant donné une variable cachée (« indépendance des résultats ») : il n’y a ni communication ni quelconque influence entre Alice et Bob.

La combinaison de ces deux notions (l’indépendance des paramètres et celle des résultats) forme ce qu’on appelle la « causalité locale », qui est aujourd’hui devenue la définition commune de la localité. Dans une théorie locale (la mécanique classique, les théories de la relativité…), toute corrélation entre deux systèmes A et B qui ne peuvent pas communiquer entre eux s’explique entièrement par la présence d’un passé commun, représenté par une variable classique, éventuellement cachée. L’article EPR défendait l’idée que la mécanique quantique devrait être une théorie locale et donc qu’il fallait la compléter avec des variables cachées classiques pour en expliquer les corrélations.

L’article EPR défendait l’idée que la mécanique quantique devrait être une théorie locale

Cette définition de la localité est tirée des principes de la relativité restreinte, qui stipule qu’aucune information ne peut être transmise plus vite que la vitesse de la lumière, semblant garantir un principe de causalité (la cause précède toujours son effet), et du principe de cause commune, qui dit que des corrélations entre A et B sans causes directes entre eux s’expliquent par une cause commune.

De façon intéressante, les corrélations issues de certains états quantiques intriqués ne respectent pas le principe de localité, sans pour autant entrer en conflit direct avec la relativité restreinte et la causalité. Celle-ci est en effet préservée, car l’intrication ne permet pas de transmettre de l’information entre les personnes qui opèrent des mesures sur les particules intriquées. C’est un point vraiment important qui prête souvent à confusion. L’intrication quantique ne permet pas de transmettre de l’information instantanément d’une particule intriquée à l’autre. Nous verrons plus loin qu’il existe des méthodes pour partager des clés de chiffrement, par exemple, mais elles passent nécessairement par une étape où Alice et Bob communiquent par des voies classiques. L’intrication sert uniquement à garantir le côté inviolable du protocole.

La formulation du paradoxe EPR est relativement abstraite. Peut-on en donner une description plus concrète ?

Prenez deux photons intriqués, A et B, qui sont émis simultanément par une source, de sorte que leurs états de polarisation – la direction dans laquelle leur champ électrique oscille, qui peut être par exemple « horizontale » ou « verticale » – sont toujours opposés (cela fonctionne aussi pour « toujours identiques »). La paire de photons est donc dans une superposition de deux états possibles qui ne peuvent pas être séparés : (« A, horizontale » et « B, verticale ») plus (« A, verticale » et « B, horizontale »). Maintenant, A est envoyée d’un côté du laboratoire à Alice, et B de l’autre côté à Bob. La polarisation peut être mesurée dans n’importe quelle direction ; on va ici s’intéresser à deux axes distincts, l’axe « horizontal-vertical » et l’axe « diagonale haute-diagonale basse » (rotation de l’axe « horizontal-vertical » de 45 degrés). La mécanique quantique nous dit que si Alice mesure la polarisation de A selon la direction « horizontal-vertical » et obtient « horizontale », Bob a une probabilité de 100 % de mesurer « verticale » pour la particule B selon le même axe. En revanche, si Bob avait effectué sa mesure selon l’axe diagonal, il aurait alors eu 50 % de chance de mesurer « diagonale haute » et 50 % de mesurer « diagonale basse ». Mais, si Alice avait mesuré selon l’axe « diagonale haute-diagonale basse », et obtenu par exemple « diagonale haute », alors Bob aurait une probabilité de 100 % de mesure « diagonale basse ». On observe une (anti-) corrélation parfaite chaque fois que les choix d’axes sont les mêmes, or Alice et Bob ne peuvent pas communiquer leur choix d’axe de mesure. Une façon d’expliquer cette corrélation sans possibilité de communication consiste à supposer qu’il manque une information dans les équations de la mécanique quantique. EPR pensaient ainsi qu’il suffirait de compléter la théorie avec des variables cachées, qui détermineraient entièrement les valeurs cachées de ces polarisations avant toute mesure en respectant implicitement l’hypothèse de localité, pour donner une explication à ces corrélations quantiques sans actions fantômes à distance.

Comment le débat sur les variables cachées s’est-il poursuivi ?

En 1932, donc trois ans avant EPR, John von Neumann avait énoncé un théorème qui semblait démontrer l’impossibilité d’utiliser une théorie avec des variables cachées pour reproduire les prédictions de la mécanique quantique.

Mais, en 1952, David Bohm a redécouvert, indépendamment des travaux de Louis de Broglie, la théorie de l’onde pilote, qu’il a baptisée « interprétation causale ». Cette interprétation de la mécanique quantique, nommée souvent « mécanique bohmienne » ou « théorie de de Broglie-Bohm », la complète en introduisant des variables cachées qui permettent de décrire la position des particules dans l’espace et leur évolution dans le temps. Cependant, cette construction semble impliquer des influences superluminiques entre particules à distance, en totale violation de la localité. La théorie est dite « non locale ». Ces variables cachées ne peuvent pas être mesurées expérimentalement, et les influences superluminiques ne peuvent pas être utilisées pour transmettre de l’information. Elles n’entreraient donc pas en conflit frontal avec la relativité restreinte. L’aspect « conspiratoire » de ce modèle a néanmoins peu satisfait les physiciens contemporains de Bohm. Il finira lui-même, cinq ans après sa formulation, par renier dans un premier temps son interprétation, admettant que la tension entre ses interactions « fantômes à distance » et la théorie de la relativité était difficilement surmontable.

Alors qui de von Neumann, avec son théorème qui interdirait les variables cachées, ou de Bohm, avec sa théorie aux variables cachées « non locales », avait raison ? Ce qui est certain, c’est que le problème des variables cachées était loin d’être trivial. Au début des années 1960, John Bell, physicien irlandais qui travaillait au Cern, s’est étonné que personne ne soit sidéré par la contradiction apparente. Il s’est attaqué au problème, et a rapidement clarifié la situation en montrant que von Neumann s’était trompé (ses hypothèses n’étaient pas assez générales pour rendre compte de tous les modèles à variables cachées possibles).

John von Neumann, avec son théorème qui interdirait les variables cachées, s’était trompé

Bell n’était d’ailleurs pas le premier à identifier le problème. Trois femmes ont indépendamment pointé l’« erreur de von Neumann » avant lui : dès 1933, Grete Hermann, une mathématicienne et philosophe allemande, aujourd’hui reconnue comme une des pionnières des études philosophiques sur la mécanique quantique, est la première à en faire la démonstration. Bien qu’elle ne soit pas citée par Bell, sa preuve sera néanmoins mentionnée dans un autre article fondamental de la mécanique quantique que nous avons déjà évoqué, le théorème de Kochen-Specker. En 1952, dans son article « Sur le caractère ouvert de la mécanique ondulatoire », Paulette Destouches-Février, physicienne, logicienne et philosophe française, ne pointe pas directement d’erreur, mais propose une façon différente de compléter la théorie que celle envisagée par von Neumann. Enfin, en 1964, la physicienne franco-roumaine Mioara Mugur-Schächter note également dans sa thèse « Étude du caractère complet de la mécanique quantique », encadrée par Louis de Broglie, un souci avec l’argument de von Neumann.

Bell ne semble pas avoir eu connaissance de ces travaux. Il mentionnera tout de même que Bohm lui-même avait expliqué en quoi le résultat de von Neumann n’invalidait pas son interprétation, mais que l’argument de Bohm ne l’avait pas convaincu.

Si je résume, Bell a montré qu’il est possible d’avoir des variables cachées pour compléter la mécanique quantique. Mais cela tranche-t-il le débat sur le paradoxe EPR ?

Pas encore, en effet. Une fois la question de la possibilité de variables cachées résolue, Bell s’est penché sur la conclusion de l’article EPR, qui proposait de compléter la théorie quantique avec des variables cachées qui respecteraient la localité. C’est l’objet de son article de 1964.

Au passage, de façon amusante, Bell fait bien référence à son résultat sur la possibilité d’avoir des variables cachées dans son article de 1964, mais ce résultat ne sera publié qu’après, en 1966, car l’éditeur avait perdu le manuscrit de Bell…

Concrètement, dans son article de 1964, Bell a traduit mathématiquement les arguments quasi philosophiques du trio EPR et considéré une reformulation de l’argument par Bohm et Yakir Aharonov. Il a alors obtenu des inégalités mathématiques, les « inégalités de Bell ». Ces dernières portent sur les corrélations entre les résultats de mesures réalisées par deux observateurs, Alice et Bob, qui ne peuvent pas communiquer entre eux mais qui partagent une ressource commune, par exemple deux particules ayant interagi dans le passé. Lors d’un « test de Bell », on mesure ces corrélations à partir des statistiques obtenues séparément par Alice et Bob, puis on examine si elles satisfont ou non les inégalités. Si elles les respectent, on peut attribuer ces corrélations à une explication classique, satisfaisant la causalité locale, c’est-à-dire entièrement fondée sur l’existence de variables classiques (possiblement cachées) issues de leur passé commun. En revanche, si les inégalités sont violées, les corrélations observées ne peuvent être reproduites par un tel modèle classique : elles sont alors véritablement « non classiques ». Dans le cadre de la théorie quantique, une telle violation constitue la signature indiscutable de l’intrication quantique.

Petite anecdote en passant : John Bell n’a pas été le premier à découvrir les inégalités de Bell ! Certaines ont été découvertes dès… 1854, par George Boole, créateur de la logique moderne. Dans ses travaux sur la théorie des probabilités publiés dans son ouvrage Les Lois de la pensée, il a obtenu de telles inégalités – formulées comme des contraintes sur la possibilité d’une distribution de probabilité conjointe pour un système de variables aléatoires –, qu’il a interprétées comme des conditions de possibilité pour toute expérience. Bien sûr, la physique quantique n’existait pas alors, et cela n’enlève rien au mérite de Bell. Néanmoins, il est intéressant de constater que ces limites mathématiques ont été découvertes dans des contextes bien différents (le paradoxe EPR et l’étude mathématique des probabilités).

Est-ce que des expériences permettent de mesurer ces corrélations ?

Tout à fait ! Le prix Nobel de physique 2022 a été décerné à John Clauser, Alain Aspect et Anton Zeilinger pour leurs tests expérimentaux de violation des inégalités de Bell. La première expérience de violation a été menée par John Clauser et Stuart Freedman en 1972, mais celle-ci présentait une échappatoire importante, dite « de localité » : le dispositif expérimental ne garantissait pas l’impossibilité d’une communication entre les particules mesurées par Alice et Bob. Il a fallu attendre une dizaine d’années et les expériences d’Alain Aspect et de son équipe, à l’Institut d’optique d’Orsay, pour voir cette faille écartée, et les premières violations irrévocables des inégalités de Bell.

Le défi technique était de taille. Il fallait mesurer la polarisation d’une paire de photons A et B émis simultanément par une source les ayant préparés a priori dans un état intriqué, tout en évitant l’échappatoire de localité. Pour ce faire, au niveau de chaque détecteur, l’un baptisé « Alice » et l’autre « Bob », l’orientation d’un polariseur – définissant un choix de mesure de polarisation – devait être établie en un temps extrêmement court, de manière à exclure toute influence entre « Alice » et l’état de polarisation de B, et entre « Bob » et l’état de polarisation de A. Après de nombreuses péripéties, qu’Alain Aspect raconte dans son livre Si Einstein avait su (Odile Jacob, 2025), les statistiques obtenues ont été (presque) sans ambiguïtés : Alain Aspect et son équipe avaient bel et bien réussi à observer une violation des inégalités de Bell.

« Presque », car, en étant extrêmement pointilleux, deux petites échappatoires persistaient : les choix d’orientation des polarisateurs ne reposaient pas sur une source de hasard parfaite, mais sur des commutateurs acousto-optiques, dont le fonctionnement suivait un processus quasi périodique. Néanmoins, les deux commutateurs, clairement séparés, étaient pilotés par des générateurs distincts opérant à des fréquences différentes, et il est tout à fait raisonnable de considérer que leur fonctionnement était dépourvu de toute corrélation. Cette échappatoire a été fermée en 1998 par l’équipe de Zeilinger, qui a utilisé des générateurs de nombres aléatoires ultrarapides à la place. Restait alors une échappatoire dite « de détection » : dans les expériences d’Aspect et de Zeilinger, certains photons émis par la source étaient perdus avant d’arriver au détecteur. On pourrait alors argumenter que si ces photons étaient arrivés, peut-être que les statistiques obtenues n’auraient pas conduit à la violation des inégalités de Bell. En 2015, trois équipes ont réalisé des expériences évitant à la fois les échappatoires « de localité » et « de détection ». Aujourd’hui, la violation expérimentale des inégalités de Bell ne fait plus débat.

Et que faut-il en conclure ?

La violation expérimentale des inégalités de Bell indique qu’il existe des corrélations dans la Nature qu’on ne peut pas simplement expliquer de façon « classique », c’est-à-dire qu’on ne peut pas expliquer par l’existence seule d’une cause classique commune aux paires de particules mesurées. Elle donne tort à Einstein, qui espérait au contraire pouvoir compléter la théorie quantique avec des variables cachées classiques de telle sorte que celles-ci puissent rendre compte des corrélations quantiques sans aucune influence superflue. Une conclusion possible, la plus simple et pragmatique dans le cadre de la théorie quantique, est d’interpréter cette violation comme une preuve que le passé commun des particules n’est pas classique, mais quantique : leur état est intriqué. Ce n’est pas forcément très satisfaisant du point de vue de quelqu’un qui essaye d’avoir une description complète de la Nature, mais c’est pourtant bien ce qui se passe en toute rigueur.

Donc, en théorie quantique, on doit conclure qu’il y a de l’intrication, cette impossibilité de factoriser des phrases quantiques composées. Mais il faut cependant souligner une particularité des inégalités de Bell : leur violation expérimentale n’est pas spécifique à la mécanique quantique ! Il s’agit d’un critère bien plus général, permettant de faire la distinction entre corrélations classiques et non-classiques, indépendamment de la théorie dans laquelle les corrélations sont formulées. Cela signifie que dans n’importe quel univers avec ses propres lois physiques, si on mesure une violation des inégalités de Bell, alors il faut conclure qu’un passé commun classique n’est pas suffisant pour expliquer les corrélations. Il faut une théorie non-classique, que ce soit la mécanique quantique ou autre chose.

Les inégalités de Bell permettent de faire la distinction entre corrélations classiques et non-classiques, indépendamment de la théorie dans laquelle les corrélations sont formulées

À l’heure actuelle, notre confiance en la théorie quantique est très forte, du fait qu’elle a été testée maintes et maintes fois, et que, jusqu’à présent, elle n’a jamais été falsifiée. Même si, dans l’avenir, on découvre qu’elle doit être remplacée par une théorie plus fondamentale, par exemple pour intégrer une description quantique de la gravité, cela ne remettra pas en question les conclusions des expériences d’Alain Aspect et de ses collègues. Le philosophe et physicien Abner Shimony parlait de ces résultats comme étant de la « métaphysique expérimentale », la portée de ces expériences touchant du doigt certains principes philosophiques sur notre conception de la réalité.

En revanche, les expériences d’Alain Aspect ne fournissent pas de résultats « positifs » sur la réalité. On entend souvent dire que ces expériences ont clos le fameux débat qui opposait Bohr et Einstein, en donnant non seulement tort à ce dernier, mais en donnant également raison au premier. Ce n’est pas le cas. Ce résultat ne valide pas le point de vue philosophique de Bohr. Mais il ne le falsifie pas non plus, contrairement au point de vue d’Einstein. Il ne s’agit pas d’une preuve absolue que le monde est décrit par la mécanique quantique et que cette théorie est complète. C’est une possibilité, certes, mais parmi de nombreuses autres. On peut ainsi tenter d’aller au-delà de la conclusion pragmatique d’une « explication » en termes de « passé commun quantique intriqué », et garder l’idée de variable cachée classique. Il existe alors différentes façons de compléter la théorie quantique qui sont compatibles avec l’expérience de Bell. C’est le cas par exemple de la théorie de de Broglie-Bohm, qui complète la mécanique quantique avec des variables cachées « non locales ». Mais il en existe bien d’autres.

Il est souvent affirmé que l’expérience d’Aspect prouve que la mécanique quantique est une théorie non locale. Qu’est-ce que cela signifie ?

Aujourd’hui, le terme « non-localité » est communément utilisé pour signifier une violation des inégalités de Bell, et est donc équivalent au terme « non-classique » que j’ai utilisé précédemment. Il y a toutefois une petite nuance qui n’est pas souvent faite, mais qui a son importance. Intrication et non-localité sont deux choses différentes. D’une certaine façon, la non-localité quantique, c’est la forme la plus forte d’expression de l’intrication. Car, en réalité, il n’existe pas une seule forme d’intrication, mais tout un spectre avec des corrélations plus ou moins fortes. De façon surprenante, on peut avoir un système non séparable, donc intriqué, mais pas de façon assez forte pour que les corrélations violent les inégalités de Bell. Cela arrive par exemple quand il y a du bruit dans le système, des perturbations qui vont altérer l’état intriqué. Cela souligne aussi la difficulté des tests de Bell, dans lesquels il faut vraiment bien contrôler les perturbations.

Il n’existe pas une seule forme d’intrication, mais tout un spectre avec des corrélations plus ou moins fortes

Et pour rajouter de la complexité au sujet, de la même façon qu’il existe tout un spectre d’intrication, il existe aussi différentes formes de non-localités. Et elles peuvent être plus fortes que la non-localité quantique. En effet, même si certaines corrélations quantiques violent les inégalités de Bell, elles n’atteignent jamais la valeur maximale autorisée par la logique. Par exemple, dans le cas du test de Bell le plus connu, dit « CHSH » (du nom de ses inventeurs Clauser-Horne-Shimony-Holt), la limite maximale des corrélations classiques, l’inégalité de Bell, a une valeur de 75 %, surpassée par la limite théorique des corrélations quantiques – nommée « borne de Tsirelson » – d’environ 85 %… qui n’est pas 100 % ! Comprendre l’origine de cette borne est aujourd’hui l’un des enjeux majeurs des fondements de la mécanique quantique.

Il existe par ailleurs une théorie probabiliste dite « post-quantique », purement théorique et utilisée comme outil conceptuel pour mieux cerner la spécificité du monde quantique. On l’appelle le « monde des boîtes » (boxworld). Dans cette théorie, Alice et Bob ne partagent pas de l’intrication quantique, mais des objets abstraits nommés « boîtes de Popescu-Rohrlich » (boîtes PR). Grâce à ces boîtes, les corrélations obtenues peuvent violer n’importe quelle inégalité de Bell de manière maximale : elles atteignent toujours 100 %, ce qui constitue une non-localité encore plus extrême que celle autorisée par la mécanique quantique.

Et donc que signifie la non-localité ?

Comme je le disais, assimiler systématiquement la violation d’une inégalité de Bell à de la « non-localité » constitue un abus de langage. Mais encore faut-il définir avec soin ce que l’on entend par là : en général, ce terme renvoie à la négation du principe de causalité locale évoqué précédemment.

La causalité locale repose, d’une part, sur le principe de cause commune : si deux événements A et B sont corrélés, sans que l’un ne cause l’autre directement, alors ils doivent partager une cause commune C, représentée par une variable classique (éventuellement cachée). Une fois ce cadre posé, s’ajoutent, d’autre part, les hypothèses d’indépendance des paramètres et des résultats précédemment exposées, qui peuvent être dérivées d’un principe plus général dit « de non-conspiration » ou de no fine-tuning (littéralement « pas de réglages fins ») : l’explication en termes de « causes et effets » proposée de ces corrélations doit strictement refléter la structure de l’expérience, sans introduire d’influences cachées et inaccessibles qui conspireraient à produire les corrélations. Dans un test de Bell, le résultat d’Alice dépend a priori uniquement de son choix de mesure et de la source, et de même pour Bob ; de plus, les choix de mesures sont supposés parfaitement aléatoires et statistiquement indépendants de tout le reste. Une explication classique devrait donc se contenter de cette structure causale, en modélisant la source par une variable classique représentant un passé commun, et rien de plus. S’il n’y a aucune communication entre Alice et Bob, s’il n’y a pas de transmission d’information entre l’expérience de Bob et celle d’Alice, alors les résultats de leurs mesures respectives ne sont pas influencés par celles de l’autre (indépendance des paramètres et résultats). Cela semble parfaitement logique… et c’est justement cette hypothèse qui est transgressée par les corrélations quantiques !

Ainsi, la violation d’une inégalité de Bell signifie que les corrélations observées ne peuvent être reproduites par une théorie respectant à la fois cause commune classique et absence de réglages fins. Au moins l’un de ces principes doit donc être abandonné – ce qui révèle la profondeur du défi conceptuel posé par la mécanique quantique.

Comment explique-t-on alors la non-localité ?

Dans le cadre explicatif du principe de cause commune classique, la violation d’une inégalité de Bell signifie que, si l’on souhaite malgré tout conserver l’idée qu’une variable classique issue du passé commun explique les corrélations, il faut alors abandonner le principe de non-conspiration et, dans ce cas, la Nature est fondamentalement étrange : il faudrait supposer l’existence d’influences cachées, impossibles à observer directement et impossibles à exploiter pour transmettre de l’information. Par exemple, on peut expliquer les corrélations quantiques en invoquant un passé commun classique et des influences plus rapides que la lumière entre les choix de mesure et les résultats, de part et d’autre de l’expérience (abandonner l’indépendance des paramètres) : ce serait une forme authentique de non-localité. Cette perspective est adoptée dans la théorie de de Broglie-Bohm. Cependant, en restant inaccessibles à toute utilisation pratique (du fait d’un mystérieux réglage fin), ces influences ne contredisent pas directement la relativité restreinte.

En restant inaccessibles à toute utilisation pratique, les influences superluminiques ne contredisent pas directement la relativité restreinte

Une autre piste est la rétrocausalité : certaines influences cachées sont telles que le futur peut agir sur le passé et la cause ne précède plus nécessairement l’effet. Enfin, dans le superdéterminisme, le passé classique n’influence pas seulement les résultats des mesures, mais aussi secrètement le choix même des mesures effectuées – affaiblissant ainsi la liberté de choix d’Alice et de Bob. Si l’on choisit de réserver le terme « localité » à la seule interdiction d’influences superluminiques (comme ce fut le cas historiquement), alors rétrocausalité et superdéterminisme peuvent être considérés comme locaux au sens strict ; ils n’en demeurent pas moins des modèles fortement « conspiratoires », au prix ontologique élevé.

Y a-t-il d’autres explications possibles à la non-localité quantique ?

D’un point de vue logique, la non-localité s’apparente à un cas particulier de contextualité, concept que je mentionnais dans la partie précédente, qui émerge lorsque des données (les corrélations obtenues par Alice et Bob pour chaque couple de mesure qu’ils effectuent, le contexte de mesure) sont localement cohérentes (dans chaque couple de contextes de mesure) mais globalement incohérentes (lorsque l’on compare les corrélations obtenues dans tous les contextes différents). On retrouve ici aussi une forme de représentation d’un réglage fin, une anomalie globale qui ne se manifeste pas au niveau local.

Il existe de nombreuses autres interprétations possibles. Comme expliqué précédemment, une solution très simple et pragmatique est de renoncer partiellement au principe de cause commune en le reformulant : pour expliquer les corrélations quantiques, le passé commun ne doit plus être une simple variable cachée classique, mais un passé commun… quantique. Autrement dit, ce point de vue invite à revisiter notre façon de comprendre et d’expliquer les corrélations de la Nature en abandonnant notre logique classique pour la théorie quantique, et en acceptant ainsi de considérer l’état intriqué lui-même comme cause commune, comme un nouvel élément explicatif fondamental.

D’autres choisissent plutôt d’abandonner l’idée même d’une explication causale. C’est le cas des approches néo-Copenhague, telles que le QBism, pour lesquelles la violation des inégalités de Bell indique qu’il faut peut-être renoncer à décrire la Nature comme une réalité indépendante de l’observateur. Dans cette perspective, les corrélations mises en avant dans les expériences de Bell sont, en un sens, artificielles : aucune entité physique n’observe simultanément les résultats d’Alice et de Bob. Ces corrélations n’existent qu’au moment où les deux expérimentateurs comparent leurs données – par des moyens classiques, par exemple par téléphone ou par courriel. La théorie quantique, dans ce cadre, n’est pas un récit objectif de ce qui se passe « réellement », mais une boîte à outils permettant à chaque observateur de faire des prédictions personnelles sur les résultats de ses propres mesures. Ce qui a un sens physique n’est donc pas une corrélation abstraite, mais uniquement ce qui est effectivement observé par un agent donné dans son expérience.

L’intrication quantique est un phénomène d’une incroyable richesse…

Absolument. Pour les théoriciens, elle permet vraiment d’explorer les fondements de la théorie quantique et dans certains cas de sonder ce qui heurte notre logique classique.

Mais c’est aussi une ressource que les expérimentateurs et les expérimentatrices exploitent pour des applications très concrètes. Dans les ordinateurs quantiques, les qubits sont dans une superposition d’états mais ils sont aussi intriqués. Pour certains types de calculs très spécifiques, la puissance opératoire est décuplée. L’intrication permet également de mettre en place des méthodes qui corrigent les erreurs sur les qubits (les codes correcteurs quantiques), qui sont des états fragiles et facilement perturbés par l’environnement, ou encore de développer des sources fiables de nombres aléatoires.

Il est aussi possible de concevoir des protocoles de transmission de clé de chiffrement en utilisant des photons intriqués et une violation d’inégalité de Bell. Rappelons que l’intrication ne permet pas de transmettre de l’information, mais, en étant astucieux, il est possible de l’utiliser pour établir des méthodes de partage de clé de chiffrement. Dans le protocole proposé par Artur Ekert en 1991, amélioré par la suite en 2006-2007 par Antonio Acín et ses collaborateurs, une source de photons intriqués envoie une particule à Alice et l’autre à Bob. Chacun choisit l’orientation de son dispositif pour mesurer la polarisation de son photon et note son résultat. Ils répètent l’expérience de nombreuses fois. Alice et Bob s’appellent ensuite pour échanger sur leurs résultats : s’ils ont utilisé la même orientation, ils gardent le résultat, qui correspond alors à un bit de la clé de chiffrement. Si non, ils vérifient que leurs corrélations conduisent bien à une violation d’inégalité de Bell. La clé pourra ensuite servir pour chiffrer un message (par exemple avec l’algorithme dit « du masque jetable »). Si quelqu’un tente d’intercepter un photon lors de la transmission de la clé, ou d’accéder d’une quelconque façon à son état, la perturbation de cette intervention viendra altérer l’état intriqué, de telle sorte que la violation de l’inégalité de Bell n’aurait pas lieu. Ainsi, si Alice et Bob se rendent compte que leurs corrélations ne sont pas assez fortes pour une violation d’inégalité de Bell, ils savent qu’ils sont épiés. Une fois l’intrusion détectée, Alice et Bob jettent la clé en cours et peuvent recommencer le protocole à nouveau. Correctement mis en place, ce dernier devient théoriquement impossible à attaquer : la clé établie et partagée par Alice et Bob est un secret gardé par les lois de la physique quantique elles-mêmes !

Une difficulté majeure pour la mise en œuvre pratique de ces protocoles est la distance qui sépare Alice et Bob. Théoriquement, l’intrication ne connaît pas de limite spatiale – c’est même l’un de ses principaux attraits –, mais, en pratique, elle est extrêmement fragile. Par exemple, les photons circulant dans un réseau de fibres optiques finissent souvent par se perdre. Dans un réseau classique, on compense ces pertes à l’aide d’amplificateurs ; mais pour des photons intriqués, cette stratégie ne fonctionne pas : amplifier reviendrait à détruire l’intrication. Il faut donc trouver une autre voie. C’est là qu’intervient la téléportation quantique. Rien à voir avec Star Trek : il s’agit plutôt d’un « couper-coller » d’un état quantique, transféré à distance. Ce procédé repose sur deux ingrédients fondamentaux : un partage d’intrication entre deux lieux et une communication classique. En combinant ces deux ressources, on peut transmettre un état quantique sans qu’aucune particule ne voyage directement avec cet état. Autrement dit : l’information quantique se déplace via une communication classique, et sans le support matériel initial ! Grâce à cela, l’intrication peut être distribuée d’un laboratoire à l’autre, formant les bases d’un véritable réseau quantique. On peut ainsi envisager un internet quantique, intrinsèquement sécurisé sur de très longues distances, s’appuyant sur des protocoles de téléportation réguliers pour maintenir l’intrication à travers le réseau.

C’est la mise en évidence expérimentale de l’intrication quantique qui a profondément transformé mon domaine de recherche, les fondements de la théorie quantique. Mais cette avancée ne s’arrête pas là : elle impulse aujourd’hui une révolution technologique en plein essor, souvent appelée « seconde révolution quantique ». Elle reflète la compréhension de plus en plus fine que les physiciens ont acquise du phénomène d’intrication. La littérature scientifique consacrée à ce sujet est déjà foisonnante, et, pourtant, bien des questions demeurent : dans les fondements, l’étude des intrications impliquant de nombreuses particules ou s’organisant en réseaux n’a pas encore livré tous ses secrets ; et du côté des applications, de nombreuses ressources informationnelles restent très certainement à découvrir !

Lire l’article en entier