Rechercher
Fermer ce champ de recherche.

Thierry Masson

Chargé de Recherche au Centre de Physique Théorique

01/03/2004

La physique quantique, 100 ans de questions (I)

1. Qu’est-ce que la physique quantique ?

 La physique quantique est née en 1900 lorsque le physicien allemand Max Planck publie les résultats de ses recherches sur le rayonnement du corps noir. Dans cet article, il introduit une nouvelle constante fondamentale de la physique qu’il désigne par h, qu’on nomme aujourd’hui la constante de Planck. L’irruption d’une nouvelle constante fondamentale en physique est toujours le signe d’un grand changement, et dans ce cas, on peut parler de révolution. Toute la représentation que les physiciens (et plus tard les chimistes) avaient alors de la nature allait se trouver complètement changée : nouveaux regards sur les phénomènes physiques, nouveaux outils mathématiques, et bien plus encore, nouvelle compréhension de la nature. 100 ans après ces premiers travaux, la physique quantique n’a pas encore livré tous ses secrets. L’un d’eux, celui qui a le plus diffusé dans le grand public, concerne son interprétation. L’objet de cet article est de rappeler ce qu’est aujourd’hui la physique quantique, de montrer ce qu’elle a de surprenant, et d’essayer de faire un état des lieux des récents travaux sur son interprétation.

1.1 Les limites de la physique classique

La physique classique a régné en maître depuis que le physicien anglais Isaac Newton en a énoncé ses fondements. Trois siècles de développements mathématiques en ont fait une théorie et un cadre quasi universel à la fin du XIXe siècle. À l’origine développée pour modéliser la gravitation (aussi bien sur Terre que dans le système solaire), elle s’est enrichie au XIXe siècle de l’apport de l’électromagnétisme. Cette physique (aujourd’hui encore valable !) est capable d’expliquer le mouvement des planètes du système solaire, le mouvement d’objets chargés dans un champ électrique et/ou magnétique, le comportement des fluides les plus courants (eau, air…). Les équations de Maxwell de l’électromagnétisme (1855) ont unifié le magnétisme et l’électricité. À la fin du XIXe siècle, les ondes électromagnétiques (dont la lumière fait partie) s’apprêtent à entrer de plain-pied dans l’ère technologique, avec les bouleversements que l’on connaît aujourd’hui. La lumière est alors considérée comme une onde. C’est le point de vue naturel issu de la théorie de Maxwell. Grâce aux travaux de Maxwell et Boltzman sur la mécanique statistique (étude du comportement collectif de nombreux objets identiques), qui utilise elle-même la mécanique classique, la thermodynamique (la science de l’industrie du XIXe siècle, qui a accompagné entre autres la naissance des machines à vapeur) repose désormais sur des fondations solides. La structure intime de la matière commence à être explorée, avec la découverte en 1897 par Thomson de l’électron. Une théorie complète de l’interaction de l’électron et des ondes électromagnétiques est alors proposée par Lorentz. Par la suite, grâce à des expériences convaincantes (mouvement Brownien par exemple [1] ), l’existence des atomes et des molécules est admise comme une réalité. Rutherford parvient même à explorer l’intérieur d’un atome en 1911, et en donne une image moderne.

Alors, pourquoi la physique quantique ? La réponse est simple : il restait à la fin du XIXe siècle quelques expériences inexplicables dans le cadre de la physique classique. Il faut noter qu’un de ces problèmes conduira à une autre révolution de la physique du début du XXe siècle, la relativité restreinte, puis à son extension, la relativité générale, qui est une théorie de la gravitation compatible avec la relativité restreinte : c’est là une autre histoire ! On peut résumer les échecs (qui nous intéressent présentement) de la physique classique à la fin du XIXe siècle à trois problèmes :

  1. Le ” rayonnement du corps noir. ” Sous ce nom obscur se cache un problème issu tout droit de la thermodynamique. Il est bien connu qu’un objet dont on élève la température change de couleur (un morceau de métal vire du noir au rouge, puis au blanc si on le chauffe). Le problème du rayonnement du ” corps noir ” est la modélisation idéalisée de cette expérience. Elle consiste à essayer de comprendre les caractéristiques du rayonnement électromagnétique qu’émet un tel corps ” idéal ” à une température donnée. Concrètement, un tel corps noir est bien approximé par ce qui se passe dans un four fermé. Expérimentalement, il a été possible de mesurer la répartition de l’énergie électromagnétique dans un tel four en fonction de la longueur d’onde électromagnétique. Cette courbe expérimentale n’a jamais pu être reproduite par un modèle reposant sur la mécanique statistique de Maxwell-Boltzman.
  2. L’effet ” photoélectrique. ” On peut éjecter des électrons d’une plaque de métal en le ” bombardant ” d’ondes électromagnétiques (lumière ultra-violette). Le modèle classique prévoyait que la quantité d’électrons (et leur vitesse en sortant du métal) soit uniquement reliée à l’intensité de l’onde électromagnétique. En effet, dans la théorie classique, l’énergie d’une onde électromagnétique ne dépend que de cette intensité. Or, expérimentalement, on observe l’éjection d’électrons seulement si le rayonnement électromagnétique a une longueur d’onde plus petite qu’une certaine valeur de seuil. De plus, si la longueur d’onde est plus petite que cette valeur de seuil, on peut observer l’éjection d’électrons quelle que soit l’intensité de ce rayonnement !
  3. Le ” spectre atomique. ” Les atomes (isolés) émettent ou absorbent la lumière (et les ondes électromagnétiques en général) seulement pour certaines longueurs d’ondes très particulières. Cet ensemble de valeurs, qu’on appelle le spectre de l’atome (ou ” raies spectrales “), ne peut pas être expliqué par la physique classique.

On remarquera que ces trois situations font apparaître à la fois la matière (le four, la plaque de métal, l’atome) et la lumière (ou plus généralement les ondes électromagnétiques). C’est dans le cadre de cette interaction que la physique quantique s’est révélée expérimentalement en premier. Un autre problème de grande ampleur n’est pas évoqué ici, la radioactivité, découverte en 1896. Cette énigme ne sera pas un guide pour la construction de la physique quantique. Elle ne sera pleinement expliquée que bien plus tard, en utilisant à la fois la physique quantique, la relativité restreinte et la théorie des particules élémentaires.

1.2 La genèse de la physique quantique

Le problème du corps noir est le premier à être en partie expliqué en 1900 par Max Planck, dans l’article évoqué plus haut. Pour cela, il est contraint d’introduire une nouvelle constante physique, h, très petite dans les unités ” courantes ” des physiciens. Cette petitesse explique en partie pourquoi cette constante n’avait pas été remarquée plus tôt. En utilisant h, Planck parvient à reproduire la courbe expérimentale de la distribution d’énergie électromagnétique du corps noir en fonction de la longueur d’onde. À l’origine, h est un paramètre ajusté à la main pour reproduire exactement cette courbe (dont la forme mathématique est donnée par avance par Planck, en utilisant des travaux antérieurs et des hypothèses nouvelles). Il faudra attendre quelques années encore pour comprendre la vraie signification de cette constante. Cette explication repose sur une hypothèse d’Albert Einstein émise en 1905, qui lui permet d’expliquer l’effet photoélectrique : la lumière (et toute onde électromagnétique) est constituée de ” grains ” d’énergie. L’énergie d’un grain est inversement proportionnelle à la longueur d’onde électromagnétique, et proportionnelle à la constante h. Ce ” quantum ” d’énergie sera baptisé plus tard photon. Le mot ” quantique ” lui-même vient de cette hypothèse. Il faut bien comprendre ici l’apport d’Einstein par rapport à celui de Planck. Dans son explication du rayonnement du corps noir, Planck suppose que les interactions du rayonnement et de la matière se font par quanta d’énergie. Einstein va plus loin : la lumière est constituée de quanta d’énergie ! Cette hypothèse d’Einstein sera vérifiée expérimentalement autrement en 1924 dans l'” effet Compton, ” dans lequel le photon interagit directement avec un seul électron. L’explication de l’effet photoélectrique est alors simple compte tenu de cette hypothèse. Un électron n’est éjecté du métal que s’il reçoit assez d’énergie de l’onde électromagnétique. Or cette énergie n’est donnée que ” grain ” par ” grain ” (les photons), et dépend de la longueur d’onde. Donc il existe un seuil en deçà duquel le photon est suffisamment énergétique. Quant à l’intensité (au sens classique) de l’onde, elle est reliée à la quantité de photons. Même avec un seul photon (intensité très faible), il est possible d’éjecter un électron.

À partir de 1913, Niels Bohr utilise ce principe de quantification de la lumière pour construire un modèle de l’atome, qui permet d’expliquer les principales propriétés des raies spectrales. Son modèle de l’atome, qui a inspiré ce qu’on appelle aujourd’hui l'” ancienne théorie des quanta, ” s’est révélé fructueux sur le plan des idées et des concepts nouveaux. Le point essentiel de son travail repose sur l’hypothèse que le mouvement des électrons autour du noyau est quantifié. Cette quantification implique que les électrons soient placés sur des orbites bien déterminées, un peu comme les planètes autour du Soleil. Un électron ne peut passer d’une orbite à une autre que s’il y a émission ou absorption d’un photon. Ce photon emporte ou apporte la différence d’énergie exacte entre les deux orbites. C’est pourquoi ces photons ne peuvent pas avoir n’importe quelle longueur d’onde, d’où les ” raies. ” Un bon accord avec l’expérience, malgré quelques limitations, a permis aux physiciens de poursuivre dans cette direction, et les a conduits à la physique quantique telle qu’on la connaît aujourd’hui.

Après cette série de travaux, selon les situations expérimentales, la lumière pouvait être considérée comme une onde, régie par les équations de Maxwell, ou comme un jet de photons, dont le comportement est proche de celui de corpuscules ponctuels. En 1923, Louis de Broglie a l’idée d’étendre cette dualité onde-corpuscule aux particules matérielles (électrons, proton…), et jette les prémices d’une ” théorie ondulatoire de la matière. ” Puis en 1926, Erwin Schrödinger donne une équation d’évolution à cette onde de matière. Contrairement aux ondes habituellement rencontrées en physique jusqu’alors, l’amplitude de l’onde quantique est un nombre complexe (au sens mathématique). Ce n’est donc pas une onde habituelle, comme par exemple une onde à la surface de l’eau, pour laquelle l’amplitude est une hauteur, donc une grandeur réelle, mesurable. Il fallut un certain temps pour donner un sens à cette onde. Aussitôt cette équation écrite, le spectre de l’atome d’hydrogène (le plus simple des atomes, puisqu’il n’a qu’un seul électron) est reproduit.

Par la suite, peu de progrès conceptuels vont être faits en physique quantique. Le formalisme mathématique sera compris, exploré, et la mécanique quantique [2] se présentera sous son aspect moderne. Cependant, un pas très important est franchi par Dirac en 1928 lorsqu’il propose une version relativiste de l’équation de Schrödinger (au sens de la relativité restreinte). Cette équation prédit avec succès l’existence des ” antiparticules. ” Elle est le point de départ d’une nouvelle ère en physique théorique : la ” théorie quantique des champs, ” qui aboutira dans les années 1970 au ” modèle standard ” de la physique des particules (exploré expérimentalement dans les grands accélérateurs).

1.3 La formulation moderne de la mécanique quantique

Il ne fallut que quelques années à Heisenberg, Jordan, Dirac, Pauli, Born, von Neumann, pour obtenir un cadre mathématique bien établi de la physique quantique. Ce cadre mathématique est en rupture totale par rapport aux mathématiques de la physique classique. C’est ce qui fait que cette nouvelle théorie est si difficile à expliquer avec les mots de la langue courante, qui eux-mêmes sont issus de notre culture ” classique ” : position, vitesse, énergie, Dans la formulation moderne de la mécanique quantique, les objets décrits sont complètement caractérisés par un être mathématique abstrait, sur lequel on se donne des règles qui permettent d’en extraire des informations en relation avec l’expérience. Cet être mathématique est appelé un état pour préciser qu’il renferme toute l’information dont on dispose sur l’objet décrit. Cet état est solution de l’équation de Schrödinger, qui est une équation d’évolution dans le temps. Cette équation est déterministe, au sens où la donnée de l’état à un instant initial détermine complètement l’état à tous les instants ultérieurs. Dans certaines situations, cet état peut être représenté par une fonction de l’espace et du temps : c’est la fonction d’onde (l’onde de matière de de Broglie). Ainsi, un électron est décrit quantiquement par cette fonction d’onde, alors que classiquement, il l’était par la donnée de sa position dans l’espace et de sa vitesse. On ne peut donc plus le considérer comme ponctuel, et la fonction d’onde reflète sa ” répartition ” sur tout l’espace par la règle suivante, énoncée par Born : la probabilité de trouver l’électron à un endroit donné de l’espace dépend, mathématiquement, du carré du module de l’amplitude complexe de la fonction d’onde à cet endroit.

L’équation de Schrödinger a une propriété mathématique simple, mais aux conséquences physiques très importantes : si deux états sont solutions de cette équation, leur somme l’est aussi (on dit que l’équation est linéaire). Cela correspond au principe de superposition de la mécanique quantique. Donc si les états et sont des états possibles d’un objet quantique, alors est aussi un état possible. En physique classique, on n’imagine pas de décrire l’état d’une planète comme la superposition de deux états possibles de cette même planète, par exemple un état où elle est d’un côté du Soleil, et l’autre où elle se trouve de l’autre côté ! C’est pourtant ce qu’on peut faire en mécanique quantique ! Ce principe de superposition est l’une des caractéristiques les plus essentielles de la physique quantique, qui la différencie nettement de la physique classique : c’est la source de la majorité des problèmes de compréhension et d’interprétation issus de la physique quantique. Afin d’illustrer ce principe, imaginons qu’une onde lumineuse monochromatique, issue d’une source ponctuelle, soit envoyée sur un obstacle opaque percé de deux fentes proches (voir figure 1). Sur un écran placé derrière cet obstacle, on observe une figure constituée de bandes sombres et claires. C’est l’expérience des ” fentes de Young, ” connue depuis le XIXe siècle, et qui a démontré la nature ondulatoire de la lumière. Elle s’explique parfaitement à l’aide des équations de Maxwell, en disant qu’une partie de la lumière passe par une fente, et l’autre partie par l’autre fente. Sur l’écran, on observe les figures d’interférences, communes à toute situation semblable où des ondes interviennent (par exemple, avec des ondes à la surface de l’eau, il est possible de réaliser cette même expérience). Or, il est possible de reproduire cette expérience de deux façons différentes aujourd’hui. La première consiste à envoyer la lumière photon par photon. À chaque envoi, l’écran s’illumine en un point seulement, là où le photon émis parvient à l’écran (à moins bien sûr que l’obstacle entre la source et l’écran ait intercepté ce photon, en ce cas, l’écran ne s’illumine pas). Si on envoie les uns après les autres de nombreux photons, et qu’on accumule sur l’écran les points éclairés (par exemple par un capteur électronique qui enregistre les événements), alors la figure d’interférence apparaît, petit à petit ! Par où passe chacun de ces photons ? Par les deux fentes ! Croire que le photon passe par une seule des fentes serait une erreur, comme nous le verrons par la suite. L’état du photon entre le moment où il part et le moment où il atteint l’écran est une superposition des états ” passage par la fente 1 ” et ” passage par la fente 2. ” Seul cet état est capable d’expliquer les figures d’interférence. L’autre expérience consiste à remplacer la lumière par des électrons. Là encore, il est possible de les envoyer un par un. On observe aussi des figures d’interférences sur un écran placé derrière les fentes. Cette expérience (plus compliquée en réalité) a été réalisée en 1927, et a permis de valider l’hypothèse ondulatoire de de Broglie. Ici aussi, la mécanique quantique prédit que chaque électron ” passe ” par les deux fentes en même temps.

Les règles de la mécanique quantique qui permettent de relier l’état d’un objet et les résultats expérimentaux donnent une interprétation probabiliste de certaines quantités. En effet, les résultats numériques possibles que peut produire une expérience sont parfaitement prédits par ces règles, mais seule la probabilité d’apparition de chacune de ces valeurs est donnée. On peut résumer la situation en disant que le résultat numérique d’une expérience apparaît comme tiré au hasard parmi les résultats possibles, avec une probabilité (” poids “) prédite par la théorie. Ainsi, une expérience doit nécessairement donner un résultat numérique dans un ensemble de résultats possibles prédits, et il faut répéter l’expérience un grand nombre de fois pour constater l’accord entre les probabilités théoriques et les fréquences d’apparition d’une valeur numérique particulière. Par exemple, on prédit avec une grande précision le spectre atomique de l’atome d’hydrogène, mais on peut seulement donner une probabilité sur la présence de l’unique électron de l’atome d’hydrogène dans une région donnée de l’espace ! Nous reviendrons sur les problèmes soulevés par ces probabilités dans la seconde partie.

Peu après la formulation moderne de la mécanique quantique, Heisenberg a trouvé des inégalités qui ont causé un grand émoi, les inégalités d’Heisenberg, appelées aussi abusivement ” relations d’incertitude, ” et parfois même ” principe ” d’incertitude (terme qui est faux, puisque ces inégalités sont une conséquence du formalisme et non un principe ajouté). Ces inégalités signifient que certaines grandeurs physiques ne peuvent pas être mesurées simultanément avec une précision aussi fine que l’on veut sur chacune de ces grandeurs. Par exemple, une mesure simultanée de la position et de la vitesse d’un électron est impossible avec une précision aussi grande qu’on veut sur les deux quantités. Le produit de l’imprécision sur la position et de l’imprécision sur la vitesse est supérieur à une constante proportionnelle à h. Cette inégalité est fondamentale, et ne peut pas être remise en question par quelque expérience que ce soit. Elle a été obtenue à l’origine en raisonnant sur des expériences de pensée mettant en jeu des mesures, mais en réalité c’est une conséquence intrinsèque de la description mathématique des états, et non d’une relation de l’état à la mesure (ce que suggère trop la terminologie ” relations d’incertitude “). Tout état renferme en lui ces inégalités, elles expriment le fait que les quantités ” position ” et ” vitesse ” ne sont pas des grandeurs décrivant l’état d’un objet quantique, contrairement à la mécanique classique. C’est pourquoi on les qualifie aussi de relations d’indétermination. À l’échelle macroscopique (la vie courante), compte tenu de la petitesse de h, ces inégalités ne se manifestent pas, car les imprécisions sur les mesures (les erreurs commises en lisant l’appareil de mesure par exemple) sont largement supérieures à ces imprécisions intrinsèques. Nous reviendrons sur ces inégalités lors de la discussion de l’interprétation de la mécanique quantique.

La mécanique quantique décrit une assemblée d’objets quantiques par un seul état qui prend en compte les degrés de liberté de tous ces objets à la fois, c’est-à-dire l’ensemble des grandeurs qui permettent de les caractériser complètement. Comme on peut s’en douter, cet état est très compliqué. Heureusement, il arrive parfois qu’on puisse dans cet état global ” factoriser ” un objet par rapport aux autres, par exemple. Il est alors possible de considérer l’état de indépendamment des autres, et donc d’étudier comme s’il était seul, avec un état mathématique beaucoup plus simple à manipuler. C’est ce qu’on fait concrètement lorsqu’on s’intéresse à une expérience particulière, sinon il faudrait considérer l’état qui contient les degrés de liberté de l’expérience elle-même, mais aussi de tout ce qui est dans la pièce, du bâtiment, etc et donc en fin de compte de tout l’Univers ! Il arrive cependant que cette factorisation soit impossible. Par exemple, si des objets interagissent entre eux (ou ont interagi par le passé), cette procédure est parfois impossible à réaliser. Dans ces cas, le seul état sur lequel il est possible de ” travailler ” est celui qui représente tous les objets en même temps. Cette situation correspond à la propriété de non-séparabilité de la physique quantique. Cette propriété a des conséquences expérimentales et philosophiques considérables. En effet, la notion d’objet isolé est fortement ébranlée par ce principe : quels objets de la vie courante n’ont pas interagi dans le passé ? L’expérimentateur lui-même est un objet quantique dont il faudrait tenir compte ! Néanmoins, la pratique montre qu’il est souvent possible de s’affranchir des degrés de libertés ” externes ” au système étudié (le laboratoire, l’expérimentateur, ). Entre différentes parties du système étudié, cette inséparabilité peut cependant se manifester.

En physique quantique, on sépare les objets en deux catégories : les ” bosons ” et les ” fermions. ” [3] Des bosons identiques ont tendance à se regrouper dans le même état, alors qu’au contraire, deux fermions identiques refusent de se retrouver dans le même état (principe d’exclusion de Pauli). Cela a des conséquences importantes. La ” solidité ” de la matière est expliquée par le fait que les électrons (qui sont des fermions) présents dans les atomes se ” repoussent, ” et donc les atomes ne s’interpénètrent pas. Un faisceau laser n’est autre qu’une assemblée de photons (qui sont des bosons) tous dans le même état, ce qui procure à ce faisceau une très grande homogénéité, et des propriétés remarquables par rapport à un faisceau lumineux ordinaire. La mécanique statistique quantique (qui généralise la mécanique statistique de Maxwell-Boltzman), en est profondément modifiée. C’est elle qui permet d’expliquer les propriétés du rayonnement du corps noir.

Une des conséquences fort nouvelles de la physique quantique fut la découverte du spin. Afin d’expliquer que deux électrons puissent occuper le même état dans un atome, ce qui est strictement interdit par le principe d’exclusion de Pauli, il a fallu introduire un nouveau degré de liberté interne aux électrons, le spin. Deux électrons peuvent alors apparemment occuper le même état dans un atome, car l’un a un ” spin haut, ” et l’autre un ” spin bas, ” ce qui fait qu’en réalité, les états sont bien différents. Le spin n’a pas d’équivalent classique, ce qui le rend difficile à expliquer sans formalisme mathématique. On peut cependant se le représenter comme une sorte de degré de liberté interne de ” rotation ” de l’électron sur lui-même (d’où le nom ” spin, ” qui signifie ” tourner ” en anglais). Dans cette analogie, un ” spin haut ” signifie qu’il tourne sur lui-même dans un sens, alors qu’un ” spin bas ” signifie qu’il tourne dans l’autre sens. On s’est vite rendu compte que tous les objets quantiques pouvaient avoir un spin, y compris des ” gros ” objets comme les atomes. D’un point de vue mathématique, la théorie du spin fut rapidement comprise, et étendait, en un certain sens, les degrés de liberté de rotation d’un solide sur lui-même (comme la Terre sur elle-même par exemple, d’où l’analogie). Néanmoins, les états possibles de spin ne se réduisent pas à deux valeurs possibles (haut, bas) comme c’est le cas du spin de l’électron : il existe des objets quantiques qui ont 1, 2, 3, 4, états possibles de spin. Cette hypothèse du spin fut rapidement transformée en certitude par l’expérience de Stern et Gerlach (voir figure 2). Celle-ci repose sur le fait que la trajectoire d’un corpuscule ayant un spin peut être modifiée par l’action d’un champ magnétique bien particulier. Stern et Gerlach imaginent et réalisent un dispositif dans lequel un électron entre dans un tel champ magnétique. À sa sortie, si son spin est ” haut, ” l’électron a une trajectoire qui ” monte, ” alors que si son spin est ” bas, ” elle descend. Un écran placé un peu plus loin intercepte alors cet électron et il est possible de connaître son état de spin (selon qu’on le retrouve en haut ou en bas de l’écran !). Par la suite, après la découverte de nombreuses particules, une relation profonde a été constatée entre la statistique d’une particule (boson ou fermion) et les états de spin possibles. Cette propriété n’a pu être comprise qu’en prenant en compte la relativité restreinte.

En 1947, Richard Feynman a introduit une formulation différente (mais équivalente) de la mécanique quantique. Son idée est de s’intéresser à la probabilité qu’a un corpuscule d’arriver à un point donné de l’espace en partant d’un autre point donné. Pour calculer ce nombre, il faut considérer tous les chemins joignant le point de départ et le point d’arrivée, y compris ceux qui s’éloignent le plus de la trajectoire que suivrait ce corpuscule s’il était classique. À chacun de ces chemins, on associe un ” poids ” différent, qui dépend d’une quantité physique introduite en physique classique, l’action (dont l’unité de mesure est la même que h, qui est le produit d’une énergie par un temps). La probabilité cherchée dépend alors de la moyenne sur tous ces chemins pondérés par ces poids. Cela permet facilement de reproduire le comportement classique lorsque h est considéré comme très petit : on montre que le chemin qui contribue le plus à cette probabilité est celui qui minimise l’action. On retrouve ainsi le principe de moindre action classique ! Dans cette version de la mécanique quantique, on voit que les objets ne sont plus localisés, et qu’il faut au contraire prendre en compte toutes les positions possibles de l’objet lorsqu’il se ” déplace. ” Dans l’expérience des fentes de Young, il existe deux chemins de poids à peu près équivalents dont les contributions sont les plus déterminantes : ces chemins sont ceux qui passent en ligne droite de la source à l’une des fentes puis de cette fente à un point donné de l’écran. Ces deux chemins suffisent à expliquer (en première approximation) les franges d’interférence. Dans ce cas, il n’y a pas de chemin unique dont la contribution serait nettement supérieure aux autres, et donc il n’y a pas de chemin classique ! Cette formulation de la physique quantique est surtout utilisée en théorie quantique des champs.

1.4 Les succès de la mécanique quantique

La mécanique quantique s’applique à l’échelle microscopique (celle des atomes, des molécules, et des objets encore plus petits) avec de grands succès. Elle a apporté des explications à des phénomènes jusqu’alors inexplicables et a permis de nombreuses prédictions. Elle seule explique complètement les spectres et la structure électronique des atomes, les liaisons mises en jeu entre atomes au sein des molécules (les liaisons chimiques), le magnétisme de la matière, le comportement de la matière vis-à-vis des échanges de chaleur (la chaleur spécifique), les lasers, le comportement des électrons dans la matière, y compris la conduction électrique, etc Depuis plus de 50 ans, toute la physique des particules élémentaires (la physique explorée dans les grands accélérateurs du CERN, où des particules se rencontrent à grande vitesse), à des dizaines d’échelles de grandeur plus petites que celle des atomes où elle a été conçue, repose sur la mécanique quantique (compliquée par la nécessité de prendre en compte la relativité restreinte).

Contrairement à une opinion répandue, la physique quantique se révèle aussi à l’échelle macroscopique. À température très basse, un des isotopes de l’hélium, l’hélium 4, devient liquide et acquiert un comportement étrange : si on le place dans un récipient, il remonte le long des parois ! Ce liquide n’a plus de viscosité. C’est la superfluidité, un phénomène purement quantique. Dans certains matériaux, à température basse, la conduction de l’électricité se fait sans résistance. C’est la supraconductivité, dont l’origine ne peut être expliquée que quantiquement. La cohérence du faisceau lumineux issu d’un laser [4] peut se maintenir sur plusieurs kilomètres ! Dans ces cas, la physique quantique se manifeste car les objets quantiques conservent une ” cohérence ” (quantique) à grande échelle. Ceci est possible soit parce que la température est extrêmement petite, soit parce que le milieu est tel qu’il ne détruit pas cette cohérence (le vide, une fibre optique, ).

Aujourd’hui, la mécanique quantique est un outil indispensable de l’ingénieur, et de nombreux progrès technologiques reposent sur elle : les semi-conducteurs, utilisés dans toute l’électronique moderne, et les lasers en sont les exemples les plus importants. Mais les avancées technologiques ne s’arrêteront certainement pas là. En effet, depuis une trentaine d’années, le champ des expériences quantiques possibles a été largement étendu. Des manipulations d’objets quantiques, totalement inenvisageables il y a quelques années sont aujourd’hui courantes : isoler un seul atome, et l’étudier pendant quelque temps, est désormais chose usuelle dans les laboratoires. De ce fait, des réponses expérimentales peuvent être apportées à des questions jusqu’alors considérées comme purement ” académiques, ” et bon nombre d'” expériences de pensée ” proposées par les découvreurs de la physique quantique sont devenues réalisables ! L’un des succès expérimentaux de ces dernières années est la création de ” condensats de Bose-Einstein ” d’atomes. Nous avons vu que des bosons identiques ont tendance à se regrouper dans le même état. Or il se trouve que certains atomes sont des bosons. La tentation était donc grande d’essayer de placer une assemblée de tels atomes dans un même état quantique : c’est ce qu’on appelle un condensat de Bose-Einstein. Pour réaliser ce condensat, il faut confiner ces atomes dans une sorte de petite ” boîte, ” à très basse température. C’est ce que sont parvenus à faire les physiciens ces dernières années. Aujourd’hui, de tels condensats sont courants, et font l’objet d’études approfondies. De tels progrès expérimentaux suggèrent aujourd’hui des idées nouvelles d’applications technologiques. Ainsi, les physiciens (aidés d’informaticiens) envisagent des ” ordinateurs quantiques, ” dont le principe de fonctionnement est très différent des ordinateurs usuels, et dont la puissance de calcul serait très largement supérieure à ce qui est concevable aujourd’hui par les méthodes traditionnelles. Mentionnons aussi la cryptographie quantique, dont les premières expériences ont déjà montré la faisabilité (au moins dans des laboratoires !).

Les succès de la mécanique quantique sont tels aujourd’hui qu’il est impensable de la remettre en question complètement. Ce qui ne signifie pas que l’on ne puisse pas un jour faire mieux ! Paradoxalement, son interprétation est toujours sujette à débat. C’est l’objet de la seconde partie.

  1. Le mouvement Brownien est le mouvement erratique que décrit par exemple un grain de pollen dans l’eau à la suite des chocs qu’il subit de la part des molécules d’eau.
  2. Nous essayerons par la suite de distinguer la ” physique quantique, ” qui est l’ensemble des phénomènes physiques de nature quantique (par opposition à des phénomènes physiques de nature classique), et la ” mécanique quantique, ” qui est la modélisation (non relativiste) aujourd’hui utilisée de ces phénomènes.
  3. Les mots ” boson ” et ” fermion ” viennent respectivement des noms des physiciens Bose et Fermi.
  4. Une lumière est dite cohérente lorsqu’elle est constituée d’ondes de même fréquence (même couleur) et parfaitement en phase les unes par rapport aux autres.

Venez découvrir

Les Cahiers Rationalistes

Venez découvrir

Raison Présente

Podcast

RECHERCHE PAR THÈME

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *