Rechercher
Fermer ce champ de recherche.

Thierry Masson

Chargé de Recherche au Centre de Physique Théorique

01/05/2004

La physique quantique, 100 ans de questions (II)

2. L’interprétation de la mécanique quantique : d’hier à aujourd’hui

Quatre-vingt ans  après sa formulation, la mécanique quantique est encore source d’incompréhension et plus grave encore, de confusions. Compte tenu de la complexité des mathématiques utilisées, de la remise en cause radicale de certains concepts classiques, de la profondeur des problèmes soulevés, des expériences récentes qui suscitent des interrogations nouvelles, il est certain que les débats sur l’interprétation de la mécanique quantique sont loin d’être clos. Nous allons essayer d’éclairer ces débats en faisant état des développements récents dans ce domaine.

2.1 Le problème de la mesure

L’un des problèmes majeurs de l’interprétation de la mécanique quantique repose sur la notion de mesure. En physique classique, mesurer une grandeur n’a jamais posé de problème particulier, en dehors d’éventuelles difficultés techniques. Ainsi, si on mesure la vitesse d’une voiture à l’aide d’un radar de gendarmerie, l’état de la voiture n’en sera que peu modifié. En physique classique, on suppose toujours que les mesures sont menées de telle façon que le système n’en ressort pas perturbé. Il en va tout autrement en physique quantique : l’acte de mesure modifie l’état du système. Aucune expérience de mesure ne peut contourner ce fait.

Le dispositif de Stern et Gerlach peut être utilisé comme appareil de mesure du spin d’un électron, puisque, selon le spin, l’électron sort de l’appareil avec une trajectoire vers le haut ou vers le bas. Il suffit donc de détecter cette trajectoire pour connaître le spin. Lorsqu’on effectue une telle expérience, voici ce qui se passe. Si l’électron entre dans l’état ” spin haut, ” noté (S+) pour la suite, alors la valeur mesurée du spin est toujours ” haut ” (ce qu’on désignera par +). Dans ce cas, on a une probabilité 1 de trouver +. Si l’électron entre dans l’état (S-) (” spin bas “), alors la mesure est toujours – (” bas “) : on a une probabilité 1 de trouver -. Si l’électron entre dans l’état superposé (S+)+(S-), on a une probabilité 1/2 d’obtenir + et 1/2 d’obtenir – comme résultat de la mesure. Dans tous les cas, l’état de l’électron après la mesure est soit (S+), soit (S-), selon que l’on trouve + ou – comme mesure. Pour le montrer, il suffit de placer un second appareil de Stern et Gerlach derrière le premier : le résultat donné par ce second appareil est toujours le même que celui donné par le premier. Donc l’état de l’électron a été modifié par l’appareil de mesure, selon la règle suivante :

  • (S+) à l’entrée donne après la mesure (S+) avec une probabilité 1 ;
  • (S-) à l’entrée donne après la mesure (S-) avec une probabilité 1 ;
  • (S+)+(S-) à l’entrée donne après la mesure soit (S+) avec une probabilité 1/2, soit (S-) avec une probabilité 1/2.

Dans les deux premières situations, l’état n’est pas modifié par la mesure. Dans la dernière, l’état est modifié et le choix de l’état (S+) ou (S-) est dû au hasard le plus absolu : rien ne permet aujourd’hui de l’expliquer.

 Cette propriété est plus générale que ce que cette expérience particulière suggère. En effet, en physique quantique, l’état de l’objet quantique après une mesure peut être très différent de l’état avant la mesure, et dépend du résultat de la mesure. L’expérience montre que l’état après la mesure donnerait toujours le résultat qui vient d’être trouvé avec une probabilité 1. On appelle ce phénomène la projection de l’état sur le résultat de la mesure, ou encore la réduction de la fonction d’onde. Cette propriété a été vérifiée jusqu’à aujourd’hui dans toutes les expériences effectuées (qui sont nombreuses !). C’est très simple à faire, puisqu’il suffit pour chaque mesure effectuée de la répéter juste après : les deux résultats de mesure sont toujours les mêmes. Pour le physicien, ce phénomène est déconcertant, car l’évolution de l’état entre l’instant juste avant la mesure et l’instant juste après n’obéit pas à l’équation d’évolution de Schrödinger ! Ce qui se passe pendant la mesure n’est pas un processus d’évolution quantique, au sens de la mécanique quantique. C’est comme si l’appareil de mesure agissait sur l’état de l’électron autrement que par un processus quantique, tel qu’on sait les décrire dans le formalisme expliqué plus haut ! Pourtant, si la mécanique quantique est une théorie universelle, l’appareil de mesure doit lui-même être considéré comme un objet quantique (puisque constitué d’atomes, qui sont in fine quantiques). Aussi, la mécanique quantique devrait pouvoir décrire le système constitué de l’électron et de l’appareil de mesure. Dans cette façon de procéder, l’état total de ce système obéit à l’équation de Schrödinger. Or il est impossible que cette évolution reproduise la projection de l’état de l’électron. C’est une impossibilité mathématique, elle ne dépend pas de la façon éventuelle de décrire l’appareil de mesure. Nous sommes là au cœur du problème de l’interprétation de la mécanique quantique. Comment expliquer ce qui se passe lors d’une mesure ? Comment expliquer que l’état obtenu à la sortie n’ait pas évolué quantiquement (au sens de l’équation de Schrödinger) pendant la mesure ? Comment interpréter une théorie qui ne parvient pas à décrire ce processus de mesure ? Enfin, autre question de taille :
Revenons un instant à l’expérience des fentes de Young, où des photons sont envoyés un par un. On peut la modifier en plaçant un détecteur de photon au niveau des fentes (qui bien sûr n’intercepte pas le photon), qui nous dit par quelle fente passe le photon. Si on réalise cette nouvelle expérience, les figures d’interférences disparaissent ! En effet, ce détecteur effectue une mesure sur la position du photon, et donc l’état du système après cette mesure est modifié. Cette modification implique que l’expérience avec le détecteur est complètement différente de l’expérience sans le détecteur, au point que les figures d’interférences ne peuvent plus apparaître dans la première. Il suffit pour s’en convaincre de comparer les états juste après le passage par les fentes : compte tenu de la réduction de la fonction d’onde, dans l’expérience avec le détecteur, l’état est par exemple ” passage par la fente 1 ” (si le photon est détecté sur la fente 1) alors que dans l’expérience sans le détecteur, il est encore superposition des deux états : ” passage par la fente 1 ” + ” passage par la fente 2. “

De nombreuses propositions ont été faites depuis 80 ans pour s’attaquer au problème de la mesure. Historiquement, dès les années 1920, le débat fut posé avec les bonnes questions. La célèbre controverse entre Einstein et Bohr à propos des fondements et de l’interprétation de la mécanique quantique est encore aujourd’hui d’actualité, et de nombreuses réflexions ultérieures y font référence.

La réponse d’Einstein est plutôt simple à résumer. De son point de vue, la mécanique quantique n’est pas complète. Puisqu’elle n’explique pas correctement ce qui se passe lors d’une mesure, puisqu’elle suppose un hasard absolu (lors de la mesure), il lui manque quelque chose. Sa célèbre citation, ” Dieu ne joue pas aux dés, ” résumait très bien son point de vue sur l’irruption des probabilités en mécanique quantique.

Au contraire, la réponse de Bohr est plus compliquée, car il s’est efforcé de construire une nouvelle philosophie de la connaissance à partir de cette nouvelle physique. Pour lui, la physique classique ne doit pas être abandonnée complètement. Lors de ses travaux sur l’ancienne théorie des quanta, il a introduit le principe de correspondance pour essayer de déterminer la validité des concepts classiques. Ce principe essayait de formaliser les liens entre les ” grandeurs ” quantiques et leurs équivalents classiques, et servit de guide pour construire l’ancienne théorie des quanta. Plus tard, lorsque la mécanique quantique fut exprimée dans sa forme définitive, ce principe de correspondance fut le point de départ de son interprétation. Pour lui, l’interprétation des données expérimentales en physique quantique doit nécessairement reposer sur l’emploi des concepts classiques. Pour résoudre concrètement le problème de l’acte de mesure, il faut considérer l’appareil de mesure comme un appareil classique. Pratiquement, c’est de toute façon ce qui se passe au laboratoire. De par leur taille et leur masse, les appareils de mesure sont traités classiquement. Les modéliser quantiquement, bien que conceptuellement faisable, est impossible, compte tenu du nombre important de degrés de liberté mis en jeu. En effet, un tel appareil peut être constitué de milliards de milliards d’atomes, qui ont chacun au moins trois degrés de liberté (définir leur position dans l’espace nécessite trois grandeurs) : cela fait des milliards de milliards de degrés de liberté ! Or, concrètement, ce qui nous intéresse dans un tel appareil de mesure peut être décrit par quelques degrés de libertés seulement, par exemple la position d’une aiguille sur un écran (dans ce cas, une seule grandeur, un angle), ou bien, pour les appareils plus récents, l’affichage digital sur un écran. Pour Bohr, la notion même d'” expérience ” est intrinsèquement classique : afin de décrire une expérience à d’autres physiciens, il est nécessaire de faire usage de concepts classiques ! Cette proposition de Bohr n’a pas été acceptée par tous. En effet, elle suppose que la nature soit décrite par deux théories : les objets microscopiques sont quantiques, les objets macroscopiques sont classiques. C’est inacceptable pour la majorité des physiciens : si la physique quantique est destinée à devenir la théorie qui va au-delà de la physique classique, alors elle doit s’appliquer à toutes les situations.

Pour Bohr, la réduction de la fonction d’onde doit faire partie des postulats de la mécanique quantique. Cette dynamique ” extra-quantique ” est une règle supplémentaire, qui permet de caractériser complètement l’état après la mesure.

L’interprétation que propose Bohr s’appelle aujourd’hui l’interprétation de Copenhague. Elle a en effet été conçue lors de discussions entre Bohr, Heisenberg et Pauli lors de rencontres au laboratoire de Bohr à Copenhague. Dans cette interprétation, on voit que la mesure est un acte très particulier, qui fait référence à la physique classique, et qui fait intervenir un hasard intrinsèque. Il faut remarquer que ce hasard n’est pas celui de la vie courante, qui repose, lui, sur une connaissance insuffisante des conditions initiales, tout en émergeant de lois déterministes (comme par exemple le hasard qui se manifeste lors du tirage du Loto). Cette interprétation du hasard quantique a suscité de nombreuses objections. Par ailleurs, comme nous l’avons déjà remarqué, le physicien n’a aucune raison de traiter à part la mesure : l’appareil de mesure peut être considéré comme quantique, et devrait donc à ce titre pouvoir être décrit avec le système étudié par les équations de la mécanique quantique. Malgré ces problèmes, l’interprétation de Copenhague est celle qui est utilisée aujourd’hui quotidiennement par les physiciens dans les laboratoires. Faute de mieux et de plus convaincant, il faut faire preuve de pragmatisme !

Von Neumann a beaucoup influencé la conception moderne que l’on a de la mécanique quantique. Mathématicien de formation (élève de Hilbert), c’est lui qui le premier a proposé le cadre mathématique utilisé aujourd’hui. Grâce à ce formalisme, il est le premier à proposer un modèle de la mesure. Dans ce modèle, tout est quantique : le système étudié et l’appareil de mesure forment un système quantique global. Bien que pertinent sur certains points, ce modèle ne parvient pas à expliquer le choix aléatoire qui se produit pendant la mesure, c’est-à-dire l’acte de réduction de la fonction d’onde. Même s’il ajoute un second appareil de mesure (puis un troisième, ) pour ” mesurer ” le précédent, la réduction de la fonction d’onde ne peut pas avoir lieu. Pour contourner le problème, il émet l’hypothèse la plus curieuse qui soit : cette projection ne peut avoir lieu que si au bout de la chaîne d’appareils de mesure on introduit un être conscient ! Son idée semble reposer sur la constatation que la conscience est unique, et donc le choix d’un des états est nécessairement fait lorsque l’être conscient prend connaissance des résultats de la mesure ! Il est surprenant qu’une telle idée ait pu être émise, il est encore plus surprenant qu’elle ait été reprise plus tard par quelques autres physiciens. Il est en effet difficile de croire que l’affichage du résultat d’une mesure sur un écran d’ordinateur, ou son impression par une imprimante, ne s’effectue que lorsqu’un être conscient est là pour les regarder ! C’est pourtant le serpent de mer de l’interprétation de la mécanique quantique, que seule peut-être les sciences cognitives et la neurobiologie permettront un jour de jeter définitivement aux oubliettes Roland Omnès résume très bien ce que tout physicien sensé pense de cette hypothèse : ” on doit certainement la classer comme la pire des déviations auxquelles l’interprétation de la mécanique quantique a pu conduire. “[1][2]

Afin de répondre à cette absurdité, Schrödinger imagine en 1935 une expérience de pensée qui popularisera le problème de la mesure. Il imagine le dispositif expérimental suivant. Dans une grande boîte fermée, on place un appareil qui surveille la désintégration d’un noyau radioactif. Si le noyau se désintègre, l’appareil libère un gaz mortel dans la boîte. On place un chat dans cette boîte, on la ferme, et on attend Selon Von Neumann, connaissant les lois de la désintégration radioactive (qui sont quantiques), au bout d’un certain temps l’état quantique du système enfermé dans la boîte consiste en la superposition d’un état où le chat est vivant, et d’un état où le chat est mort. Toujours selon Von Neumann, c’est seulement lorsque l’observateur ouvre la boîte que la superposition cesse, et qu’un des deux états est sélectionné (chat vivant ou chat mort) ! Il faut rappeler ce que Bohr pensait de cette expérience : pour lui, l’appareil et le chat sont classiques, et donc la réduction de la fonction d’onde a lieu dès que l’appareil détecte la désintégration. Heisenberg partageait en partie ce point de vue : pour lui il est absurde de modéliser aussi simplement ce pauvre chat, qui contient un nombre gigantesque de degrés de liberté (son ” état ” ne se résume donc pas à ” mort ” ou ” vivant “). L’interprétation de Copenhague montre pourtant là qu’elle est loin d’être satisfaisante. Elle révèle un problème de cohérence logique fondamental de la théorie : pour expliquer la mécanique quantique, il faut faire appel à la physique classique. De plus, une question naturelle se pose alors : où se situe la frontière entre quantique et classique dans une telle expérience ? Le noyau radioactif est-il quantique ou classique ? Et l’appareil de détection ? Et le chat ? D’autres interprétations ont par la suite été proposées, principalement pour chercher à contourner ce problème de la réduction de la fonction d’onde. L’une des plus surprenantes est celle des multiunivers d’Everett. Elle consiste à supprimer la réduction de la fonction d’onde du formalisme (et donc aussi le hasard qui lui est lié), et à émettre l’hypothèse audacieuse que chaque mesure conduit à ” plusieurs branches ” nouvelles de l’Univers : une branche pour chaque résultat possible de la mesure. Ainsi, chacune de ces branches est supposée être une réduction possible de la fonction d’onde. Dans cette interprétation, la réalité physique n’est donc plus unique, et les ” branches ” ne sont plus en communication entre elles. Ceci assure la logique de cette interprétation. Cette théorie est pour l’instant non réfutable !

Certains chercheurs (de Broglie et plus tard Bohm) ont essayé de refonder la mécanique quantique sur des bases plus ” classiques, ” en conservant les notions de position et de vitesse. Pour concilier ces concepts classiques avec la nouvelle théorie, ils interprètent la fonction d’onde comme une ” onde pilote ” qui accompagne la particule, et dont l’évolution est donnée par une équation semblable à celle de Schrödinger. La dynamique classique de la particule est modifiée par cette fonction d’onde. Dans cette approche, l’interprétation pose moins de problèmes puisque le caractère classique de la théorie y est conservé, par exemple les particules sont toujours localisées. Le hasard perçu lors d’une mesure n’y est pas intrinsèque, il émerge de notre ignorance de l’état initial complet du système. Cependant, cette théorie se heurte à des problèmes techniques jusqu’à présent insolubles.

2.2 Le paradoxe EPR

En 1935, Einstein, Podolski, et Rosen proposent une expérience de pensée essayant de mettre en évidence l’incomplétude de la mécanique quantique. Pour cela, ils donnent au préalable une définition précise et opérationnelle de ce qu’est un élément de réalité : ” si, sans perturber aucunement le système, nous pouvons prédire avec certitude (c’est-à-dire avec une probabilité égale à un) la valeur d’une quantité physique, alors il existe un élément de réalité physique correspondant à cette quantité physique. ” Les trois auteurs proposent alors une expérience qui conduit à ce qu’on appelle le paradoxe EPR. On considère un objet quantique M qui est constitué de 2 parties identiques et. On suppose que M est au repos, et qu’il peut se désintégrer spontanément en ses deux constituants et. Par conservation de quantités usuelles en physique (encore valable en physique quantique ! ), et vont partir avec des vitesses opposées et s’éloigner de l’endroit où se trouvait M. Au bout d’un temps suffisamment long, Einstein, Podolski, et Rosen supposent que les objets quantiques et sont assez éloignés pour ne plus entretenir de relations. Ils les considèrent donc comme deux systèmes indépendants. Il est alors possible d’effectuer une mesure aussi précise que l’on souhaite de la vitesse sur, et d’après l’hypothèse d’éloignement, le système n’est pas perturbé. Comme la vitesse de est l’opposée de celle de, on a réalisé une mesure de la vitesse de ” sans perturber aucunement le système ! ” Donc il doit exister un élément de réalité pour la vitesse. De plus, on peut mesurer avec une grande précision la position de à un instant donné. Donc les inégalités d’Heisenberg sur les incertitudes en position et vitesse peuvent être violées !

La réponse de Bohr ne se fit pas attendre : pour lui, le point faible de l’argumentation était l’hypothèse de séparabilité des deux sous-systèmes et . En effet, ces systèmes ayant interagi dans le passé, ils sont inséparables au sens quantique. Ce qui entraîne que si on croit effectuer une mesure sur, en réalité on effectue une mesure sur le système ! C’est le système global qui est perturbé, et non pas seulement: la mesure sur réduit donc la fonction d’onde de (ce qui perturbe du coup le sous-système ). Rappelons que et peuvent à ce moment-là être distants de plusieurs mètres, voire kilomètres ! Donc il n’y a pas d’élément de réalité attaché à la vitesse, et les inégalités d’Heisenberg ne sont pas mises en défaut.

D’autres réponses furent (et sont encore) proposées. Certaines supposent par exemple l’existence de variables supplémentaires qui ” caractériseraient ” mieux l’objet quantique que ne le fait l’état mathématique usuel. Comme ces variables ne sont pas ” visibles ” (actuellement ?) dans les expériences, ces théories sont appelées à variables cachées. Ces variables permettraient de redonner aux probabilités quantiques un statut plus ” statistique, ” puisque ces probabilités émergeraient de notre non-connaissance de ces variables. Chaque mesure serait alors comme un tirage du Loto, où le résultat serait complètement déterminé par ces variables, dont on ne connaît pas les valeurs précises : en moyennant les valeurs possibles de ces variables, on retrouverait une interprétation probabiliste du résultat de la mesure, tout en revenant à une causalité parfaite. Dans l’expérience EPR, ces variables permettraient de corréler les résultats de mesure sur les deux sous-systèmes et . Les premières théories à variables cachées supposaient que ces variables accompagnent le corpuscule dans son mouvement. On parle alors de théories à variables cachées locales.

Aussi avait-on plusieurs options possibles pour contourner le paradoxe EPR. C’est en 1965 que Bell trouva un moyen fort astucieux de trancher expérimentalement entre ces différentes possibilités. Il démontra (avec une incroyable facilité !) l’existence d’inégalités qui permettent de faire la différence entre la mécanique quantique et d’autres théories, par exemple celles à variables cachées locales ! Ces inégalités de Bell étaient explorables expérimentalement. Lorsque la technologie fut disponible, des expériences furent menées. Il en ressort que la mécanique quantique avait raison : l’inséparabilité est une propriété des systèmes quantiques, la réponse de Bohr était correcte. Le paradoxe EPR, dans sa forme originale, avait donc obtenu une réponse expérimentale. Les théories à variables cachées locales étaient réfutées. On pouvait penser que l’expérience d’Alain Aspect de 1982[3] avait définitivement clos le débat, par ses conclusions non équivoques. Dans cette expérience, les sous-systèmes et sont des photons émis par un atome au repos. Afin de vérifier les inégalités de Bell, il faut mesurer des grandeurs sur ces deux sous-systèmes, si possible en même temps, et étudier leurs corrélations. Cependant, dans ces expériences, on ne peut pas avoir une simultanéité exacte entre les deux mesures. Donc l’une a toujours lieu avant l’autre. Comme l’imagination des physiciens est sans limite, d’autres théories furent alors proposées (à variables cachées non locales par exemple), concurrentes de la mécanique quantique, dans lesquelles il est possible qu’une information soit échangée entre la première particule qui a subi la mesure, et la seconde (qui ne l’a pas encore subie). Cette information servirait à corréler les deux mesures, de telle sorte que les mêmes résultats que ceux de la mécanique quantique soient obtenus in fine. Compte tenu de la distance qui peut séparer les deux sous-systèmes et au moment de la mesure, l’information qu’ils pourraient s’échanger devrait nécessairement aller plus vite que la lumière. Même si la relativité restreinte ne l’admet pas, il n’est pas déraisonnable d’essayer de tester cette éventualité. C’est pourquoi une expérience récente a été faite en Suisse [4], qui donne raison elle aussi à la mécanique quantique. C’est une variante de celle d’Aspect, dans laquelle les détecteurs qui mesurent les grandeurs physiques sont en mouvement par rapport au laboratoire. Dans ce cas, en utilisant la théorie de la relativité restreinte, dans laquelle la notion de simultanéité des événements est ” relative, ” on peut montrer qu’il n’est plus possible de savoir quelle mesure a eu lieu avant l’autre! (On parle d’expériences de ” multisimultanéité. “) Il n’est donc plus permis de se demander qui a envoyé une information à l’autre, et les théories qui supposent l’échange d’informations sont réfutées ! Il en ressort aujourd’hui que la mécanique quantique n’est pas une théorie locale (quelle que soit la distance séparant deux sous-systèmes, une mesure sur l’un peut ” influencer ” l’autre), et qu’elle est cependant compatible avec certains aspects de la relativité restreinte. Ces expériences ébranlent profondément notre conception actuelle de l’espace-temps et n’ont pas fini de faire couler beaucoup d’encre

2.3 La connaissance en mécanique quantique

Lors de l’élaboration de l’ancienne théorie des quanta, Bohr ne s’était pas arrêté au problème de la mesure[5]. Afin de prendre en compte la dualité onde-corpuscule qui émergeait de ces travaux, il introduisit un (second) principe : le principe de complémentarité. Ce principe pose que des ” représentations ” différentes, et parfois incompatibles, peuvent être utilisées à propos d’un même objet quantique. Ainsi, selon la situation expérimentale, l’électron peut être décrit comme une onde (expérience des fentes de Young par exemple) ou comme un corpuscule (trajectoire balistique dans un champ électrique par exemple), mais on ne peut pas utiliser les deux langages en même temps : c’est le contexte expérimental qui décide ! On avait donc une vision duale de la nature, qui reposait d’un côté sur la notion de ” continu, ” et de l’autre sur la notion de ” discontinu. ” Ce principe a parfois été utilisé pour remettre en cause notre capacité à caractériser les objets quantiques, et du coup à décrire la réalité : s’il nous est impossible de choisir entre une représentation ou une autre, c’est que notre connaissance est limitée. Aujourd’hui, dans la formulation moderne de la mécanique quantique, ce problème ne se pose plus. En effet, il reflète juste la richesse mathématique dans laquelle est plongé l’état d’un objet quantique : on peut caractériser cet état sous différentes formes mathématiques, qui lui donne tantôt un ” aspect ondulatoire, ” tantôt un ” aspect corpusculaire, ” et tantôt ni l’un, ni l’autre (ce que les premiers travaux n’avaient pas remarqué) ! Par exemple, dès qu’on utilise une fonction d’onde comme représentation de cet état, on en a une interprétation ondulatoire. Finalement, en réalité, cette dualité est un héritage de notre culture classique : après des années d’habitudes et d’apprentissages, nous ne parvenons pas à concevoir un objet autrement que comme une onde ou un corpuscule se déplaçant dans l’espace ! La solution élégante que proposent J.-M. Levy-Leblond et F. Balibar [6] mériterait d’être plus utilisée : ne parlons ni d’onde, ni de corpuscule, mais de quanton. Ce quanton désignerait un objet quantique, décrit par son état mathématique. Libre à nous ensuite de le représenter comme une onde, un corpuscule ou autre chose en fonction de nos besoins… Les inégalités d’Heisenberg ont aussi soulevé le problème de ce qui est ” connaissable ” en mécanique quantique. En physique classique, connaître l’état d’un corpuscule à un instant donné revient à se donner à cet instant sa position et sa vitesse. En physique quantique, cela revient à se donner l’être mathématique qui représente cet état. Or, d’après les inégalités d’Heisenberg, de cet être mathématique il est impossible de tirer à la fois ce qui est censé représenter la position et la vitesse. Certains physiciens et philosophes ont interprété ce résultat comme une limitation intrinsèque de notre connaissance de la réalité. Cette conclusion suppose implicitement que la position et la vitesse existent en dehors de la description que nous avons d’un objet quantique. Or, ces notions de position et vitesse sont classiques. Rien ne permet aujourd’hui d’affirmer leur pertinence au-delà de ce cadre classique. Pour illustrer ce propos, rappelons que la notion de température est un concept essentiel et fondamental de la thermodynamique. Cependant, la physique statistique, qui est la théorie sous-jacente à la thermodynamique, ne lui donne pas ce statut premier, elle la déduit ! Donner un statut de réalité à la position et à la vitesse est malheureusement un raisonnement classique, qu’il faut bannir en physique quantique : un électron n’est pas un point matériel caractérisé par une position et une vitesse à tout instant (ni d’ailleurs par une ” onde ” répartie dans tout l’espace !). Dans le cadre d’une expérience particulière, il est possible de donner un sens à la position ou à la vitesse, mais ce n’est pas une quantité intrinsèque préexistante. On ne peut donc pas dire que les inégalités d’Heisenberg réduisent notre connaissance d’un objet quantique. Cette connaissance peut être obtenue expérimentalement avec une grande précision, sous forme d’une caractérisation complète de son état mathématique. Un processus qui est souvent ignoré des profanes est celui de préparation d’un objet quantique : il est possible de ” préparer ” un objet quantique dans des états parfaitement déterminés, et de caractériser entièrement son évolution future par l’équation de Schrödinger. Dans ce cas, où se situe notre ignorance ? Les inégalités d’Heisenberg ne sont donc pas une limitation de notre connaissance.

Le vrai problème vient plutôt du statut exact des probabilités en physique quantique, et de la réduction de la fonction d’onde. Nous n’avons aucune connaissance préalable qui permette de prévoir l’état juste après une mesure. Néanmoins, jusqu’à présent, toutes les expériences réalisées ont pu être expliquées en utilisant la description mathématique évoquée plus haut, moyennant ce problème fondamental que pose l’interprétation probabiliste. Or, ce qui est connaissable est par définition ce que l’expérience peut nous enseigner. À partir de ce que nous savons aujourd’hui, il est possible d’émettre deux hypothèses :

  1. Les probabilités en physique quantique sont intrinsèques, il est impossible de s’en passer, même dans une théorie plus fondamentale encore. C’est par exemple le point de vue de Bohr. Dans ce cas, l’état mathématique qu’on manipule ordinairement décrit ce qui est connaissable aujourd’hui. Il sera éventuellement remanié par une expérience nouvelle, mais son statut restera toujours le même, les probabilités seront toujours présentes fondamentalement.
  2. Les probabilités ne sont pas intrinsèques, elles émergent d’un manque de connaissance de notre part. C’est par exemple le point de vue d’Einstein, de de Broglie, et de Bohm (la mécanique quantique est incomplète). Dans ce cas, il faut adjoindre à l’état mathématique actuel une autre entité, qui renferme en elle ce comportement probabiliste, et qui l’explique. Comme nous l’avons déjà vu, plusieurs tentatives ont été proposées : les ondes pilotes, les variables cachées locales ou non locales Certaines de ces théories sont déjà expérimentalement réfutées. Pour l’instant, l’entité mathématique nouvelle à considérer n’apporte pas plus de renseignement que la mécanique quantique ordinaire, puisque à l’heure actuelle toutes les connaissances (empiriques) que nous avons d’un objet quantique sont déjà contenues dans l’état usuel ! En d’autres termes, ces variables seraient si bien cachées qu’on n’a pas encore trouvé le moyen de les caractériser expérimentalement ! Ces nouvelles théories risquent de plus de se heurter à des problèmes techniques incontournables : c’est ce qui est arrivé par exemple à la notion d’onde pilote si on veut la rendre compatible avec les nouvelles expériences mettant en jeu la multisimultanéité (la nouvelle théorie bâtie à cet effet ayant été réfutée elle aussi !). Ces théories sont plus compliquées, donc plus fragiles face aux nouvelles expériences. Un espoir est de voir apparaître une nouvelle théorie profondément novatrice, qui expliquerait de façon élégante les probabilités.

Aujourd’hui, rien ne permet de favoriser une hypothèse plutôt qu’une autre.

2.4 Les développements théoriques récents

Il existe aujourd’hui un renouveau théorique à propos du problème de l’interprétation de la mécanique quantique. Depuis une vingtaine d’années, des progrès conceptuels ont pu être obtenus, qui donnent en particulier une vision un peu plus fine du processus de la mesure. Tous ces travaux ont pour but de comprendre la mécanique quantique en restant strictement dans son formalisme (en utilisant en réalité un formalisme équivalent : la théorie des histoires). À aucun moment il n’est fait appel à la physique classique, en particulier la dynamique ne repose que sur l’équation de Schrödinger.

Les progrès obtenus portent d’abord sur la dérivation des lois de la physique classique à partir de la mécanique quantique, et en particulier de l’émergence du déterminisme absolu classique à partir du probabilisme quantique. Il est en effet possible de réconcilier ces extrêmes en acceptant que le déterminisme soit valable avec une probabilité d’erreur si petite dans les conditions ordinaires des expériences, qu’il est impossible de jamais les constater. Ces probabilités d’erreur sont en effet calculables, et d’un ordre de grandeur extrêmement faible. Le déterminisme prend donc un sens probabiliste. Il est aussi possible de dire à l’avance si un système aura un comportement classique ou quantique. Aujourd’hui, une nouvelle physique est en train de naître, le mésoscopique. Elle s’intéresse à des situations physiques comprises entre le microscopique (quantique) et le macroscopique (classique), en ne s’occupant que d’un nombre limité de degrés de liberté (quelques dizaines, voire centaines). Dans ces situations, il est difficile de dire si le système décrit est quantique ou classique (on parle souvent de situations ” semi-classiques “). Les développements théoriques récents sur la mécanique quantique arrivent à point nommé pour encadrer les formidables avancées expérimentales dans ce domaine ! L’ensemble de ces travaux théoriques donnent aussi un cadre très formel aux deux principes énoncés très vaguement par Bohr : le principe de correspondance d’une part (le passage du quantique au classique) et le principe de complémentarité d’autre part (ces travaux expliquent pourquoi certaines représentations sont incompatibles dans le cadre d’un expérience donnée).

La seconde avancée majeure concerne la décohérence, dans son aspects aussi bien théorique qu’expérimental. Le processus de mesure a en effet été décomposé en deux phases : la décohérence et l’objectification. La décohérence est le phénomène qui permet de faire disparaître à l’échelle macroscopique les interférences quantiques. Par exemple, dans la dynamique jusqu’alors proposée pour l’expérience du chat de Schrödinger, l’état final est une superposition de nombreux états possibles, dont certains décrivent le chat mort et d’autres le chat vivant. Ces états interfèrent entre eux, en un sens mathématique assez compliqué, alors que les états classiques (chat mort ou chat vivant) sont eux bien séparés. Or, en prenant en compte la modélisation complète de l’expérience, en y incluant le système étudié, mais aussi l’appareil de mesure et l’environnement, il est possible de montrer que l’état final est une superposition d’états qui n’interfèrent plus. On pourrait abusivement résumer ce processus en disant qu’on passe d’un état ” chat mort et vivant ” caractéristiques à un état ” chat mort ou vivant. ” Cette décohérence a sa propre dynamique (irréversible), donnée par les lois de la physique quantique, dont les temps sont extrêmement courts : en d’autres termes, cet effet est quasi instantané. Il se trouve néanmoins qu’il a été possible de monter une expérience dans laquelle ce temps assez long pour qu’on puisse observer en direct cette décohérence ! [7] La théorie a ainsi pu être confirmée. La décohérence repose sur l’idée que les degrés de liberté ” classiques ” (les variables pertinentes qui seront directement reliées aux résultats de la mesure, par exemple l’angle que fait l’aiguille sur un cadran, ou bien la position d’un électron lorsqu’il percute un écran) sont un sous-ensemble (très petit !) de tous les degrés de liberté quantique intervenant dans une mesure : ceux du système étudié bien sûr, mais aussi ceux de l’appareil de mesure lui-même (dont nous avons vu qu’ils pouvaient se compter en milliards de milliards !), et même ceux de l’environnement (air, lumière ambiante, ). Les degrés de liberté ” en trop ” sont moyennés d’une certaine façon dans ce modèle de la décohérence, puisqu’ils ne sont pas ” visibles ” à l’échelle classique. La conséquence immédiate est que si le système interagit avec un environnement qui a peu de degrés de liberté, alors la décohérence n’a pas lieu ! C’est bien ce qui se passe pour un système vraiment isolé. C’est aussi ce qui se passe dans l’expérience des fentes de Young, où la décohérence n’a pas lieu au niveau des fentes, puisque des figures d’interférences sont obtenues sur l’écran (au niveau de l’écran, la décohérence a lieu, puisqu’une seule position est sélectionnée !). Par contre, un appareil de mesure ” normal ” a beaucoup de degrés de liberté internes, et c’est pourquoi la décohérence a lieu lors d’une mesure. Ainsi, dans l’expérience du chat de Schrödinger, elle se manifeste dès l’appareil de détection de la désintégration. La décohérence a lieu plus généralement lorsqu’un système quantique interagit avec un autre système quantique contenant beaucoup de degrés de liberté internes : il n’y a donc plus lieu de particulariser l’appareil de mesure et l’acte de mesure. Le modèle de la décohérence conduit à l’interprétation probabiliste des résultats d’une mesure. Il démontre sur ce point l’essentiel des règles empiriques données autour de la mesure (et que l’interprétation de Copenhague avait à l’époque érigées en postulats), tout en restant strictement dans le cadre de la physique quantique. Enfin, il répond à la question de la frontière entre le quantique et le classique : on sait désormais dans une expérience donnée ce qui peut être considéré comme ” classique. “

L’autre étape du processus de mesure est l’objectification. Après la décohérence, l’état quantique est encore une superposition d’états ” décorrélés. ” Cependant, la réalité ” classique ” est unique: un seul de ces états est présent après la mesure. L’objectification est l’acte qui donne un résultat unique (parmi tous les résultats possibles) à la mesure, en réduisant la fonction d’onde à l’un de ces états possibles. C’est le choix au hasard d’un état plutôt que d’un autre dans la superposition d’états ” dé corrélés. ” C’est la partie la plus problématique de la réduction de la fonction d’onde. Aucune théorie n’est pour l’instant capable d’expliquer cet effet aléatoire : l’objectification reste donc aujourd’hui un postulat (c’est-à-dire un énoncé non démontré, mais vérifié par l’expérience).

3. Conclusion

Malgré ses succès, la mécanique quantique pose donc encore de nombreux problèmes de fond. Malheureusement, certaines barrières mathématiques infranchissables (dans le cadre mathématique actuel) font craindre le pire : il est possible que le processus d’objectification ne soit jamais expliqué dans ce formalisme. Certains physiciens s’en accommodent, en faisant remarquer par exemple que le problème de l’unicité de la réalité est aussi posé en physique classique, et que peut-être ce ne sera jamais une conséquence de la théorie (quelle qu’elle soit). Ce point de vue n’est pas satisfaisant pour la raison que la physique quantique, contrairement à la physique classique, crée de la ” multiplicité ” dans sa dynamique. Il serait donc normal qu’elle explique ensuite le retour à l’unicité. Plus grave encore, la physique quantique ne peut pas être la théorie ultime dont les physiciens rêvent. En effet, cette théorie fait l’impasse sur l’autre grande révolution du XXe siècle, la relativité générale. Aucune théorie jusqu’à présent ne peut prétendre unifier ces deux branches de la physique (même si certains physiciens prétendent le faire par des théories hautement spéculatives !). Il se peut donc que tous ces problèmes d’interprétation prennent un sens évident dans une future théorie. Ainsi, le statut du hasard quantique pourrait peut-être être reconsidéré un jour. Gardons à l’esprit les échelles de temps de la connaissance humaine : il a fallu près de 300 ans de recul pour dépasser la physique classique de Newton. Aujourd’hui, la physique quantique n’a que 100 ans !

  1. Omnès Roland, Comprendre la mécanique quantique, EDP Sciences, 2000.
  2. Banesh Hoffman, Michel Paty, L’étrange histoire des quanta, Seuil, 1981.
  3. Aspect, Dalibard, Roger, Physical Review Letter, Vol 49, p. 804, 1982.
  4. Zbinden, Brendel, Gisin, Tittel, Physical review A 63, p. 31, 2000.
  5. Lurçat François, Ontologie quantique selon Niels Bohr, IIIeCongrès International d’Ontologie, Saint-Sébastien, Octobre 1998.
  6. Lévy-Leblond, Balibar, Quantique, Rudiments, CNRS InterEditions, 1984.
  7. Brune, Hagley, Dreyer, Maître, Maali, Wunderlich, Raimond, Haroche, Physical Review Letter, Vol 77, p. 887, 1996.

 

Venez découvrir

Les Cahiers Rationalistes

Venez découvrir

Raison Présente

Podcast

RECHERCHE PAR THÈME

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *