Cet article résume l'histoire de la théorie quantique des champs.
La théorie quantique des champs est l'application des concepts de la physique quantique aux champs. Issue de la mécanique quantique relativiste, dont l'interprétation comme théorie décrivant une seule particule s'était avérée incohérente, la théorie quantique des champs fournit un cadre conceptuel largement utilisé en physique des particules, en physique de la matière condensée, et en physique statistique.
Historique
Les premiers pas
En 1925 à Göttingen, peu de temps après la naissance de la mécanique des matrices, Jordan essaie de quantifier le champ électromagnétique créé par une particule chargée en suivant les nouvelles règles introduites par Heisenberg pour les particules. Cette première tentative échoue, mais Jordan persévère et, un an plus tard, essaie cette fois de quantifier le champ électromagnétique libre (i.e. en l'absence de charges). La réception de ce travail par ses pairs est plutôt hostile, et on considère usuellement que la théorie quantique des champs naît véritablement en 1927 lorsque paraît l'article princeps du britannique Dirac intitulé : « La théorie quantique de l'émission et de l'absorption du rayonnement »[1]. Dans ce papier, Dirac quantifie complètement le système {charges + champs} en utilisant le formalisme hamiltonien. La méthode utilisée par Dirac sera baptisée seconde quantification.
La théorie de Dirac fut reçue et discutée élogieusement, notamment par Bohr, au cours du célèbre congrès Solvay du mois d'octobre 1927. Cependant, elle présentait manifestement un défaut majeur : son formalisme, basé sur le hamiltonien, faisait jouer au temps un rôle particulier, ce qui n'était pas compatible avec l'invariance de Lorentz réclamée par la théorie de la relativité restreinte d'Einstein. Heisenberg, Jordan, Pauli et Klein décidèrent alors de créer leur propre version de l'électrodynamique quantique relativiste. Dès 1927, Pauli et Jordan réussirent à formuler les relations de commutations covariantes des composantes du tenseur de Maxwell décrivant un champ électromagnétique libre quantifié (en représentation de Heisenberg) :
où est la métrique de Minkowski, et où la fonction de Pauli-Jordan est la généralisation relativiste de la distribution de Dirac :
Dans cette formule, la fonction : = signe vaut selon le signe de la composante temporelle de la quadri-impulsion.
En 1933, Bohr et son collaborateur Rosenfeld analysèrent la mesurabilité du champ électromagnétique quantifié à partir des relations de commutations des composantes de celui-ci. Ils montrèrent qu'un champ quantique local en un point est un être mathématique singulier, et que seule une moyenne spatiale du champ sur une petite région de l'espace est susceptible d'être accessible à la mesure[2]. Ils établirent des inégalités, analogues au principe d'incertitude pour une particule, qui expriment les limitations fondamentales sur la possibilité de mesurer des champs en des points d'espace-temps séparés par un intervalle du genre temps. Ce travail important fut publié dans une revue danoise sous la forme d'un article quelque peu hermétique[3].
En plus des auteurs déjà mentionnés ci-dessus, Wigner, Weisskopf, Landau, Peierls, Oppenheimer, Podolsky, et surtout Fermi ont chacun apporté des contributions[4] importantes au formalisme. La méthode de Fermi fut en particulier mise à profit dès 1932 par Dirac, Fock et Podolsky pour établir une formulation entièrement covariante de l'électrodynamique quantique, aussitôt incorporée par Dirac dans son célèbre ouvrage : Principes de la mécanique quantique. Cette forme finale sera reprise et synthétisée en 1943 par Gregor Wentzel dans un livre qui servira longtemps de référence[5].
Tous les auteurs cités précédemment ont buté à un moment ou à un autre sur un obstacle récurrent : l'apparition systématique d'infinis lors des calculs de grandeurs physiques censées être mesurables, rendant la théorie inutilisable.
Électrodynamique quantique
La première véritable avancée théorique concernant le problème des infinis date de 1947. Cette année-là, furent en effet mesurés précisément certains écarts dans les structures fine et hyperfine des niveaux d'énergie de l'atome d'hydrogène, écarts par rapport aux prédictions de l'équation de Dirac d'un électron dans le champ coulombien du proton.
L'un de ces écarts est le célèbre décalage de Lamb (Lamb shift). Ce résultat expérimental fut discuté intensément du 2 au lors de la « conférence de Shelter Island » de physique théorique intitulée : « Les fondements de la mécanique quantique ».
À l'issue de cette conférence, dans un train qui l'emmenait de New-York à Schenectady[6], le théoricien Bethe réussit pour la première fois à calculer un ordre de grandeur fini correct de ce déplacement de Lamb. Mais ce premier calcul était non-relativiste, donc imparfait. De retour début juillet à l'université Cornell (Ithaca) où il enseignait, Bethe fit une conférence au cours de laquelle il exposa son résultat, concluant qu'un calcul entièrement relativiste était nécessaire. Dans l'assistance figurait le jeune Feynman, qui vint voir Bethe à la fin de l'exposé pour lui dire qu'il pensait pouvoir faire ce calcul relativiste. Ce qu'il fit.
La difficulté des infinis ne fut cependant entièrement surmontée qu'en 1948, avec l'invention de la procédure systématique de renormalisation, due principalement aux travaux du japonais Tomonaga et des américains Schwinger (de l'université Harvard) et Feynman. Ces trois auteurs se partageront le prix Nobel de physique 1965[7]. L'équivalence de la formulation abstraite développée par Schwinger et de celle, basée sur des graphes, inventée indépendamment par Feynman, fut démontrée en 1948 par Dyson (Institute for Advanced Study, Princeton).
La méthode de quantification du champ électromagnétique proposée par Feynman est basée sur son concept d'intégrale de chemin. L'utilisation systématique de cette procédure de quantification à la place de la vieille quantification canonique permettra ultérieurement une quantification aisée des théories de jauge.
Théories de jauge
Les succès de l'électrodynamique quantique, théorie de jauge abélienne basée sur le groupe commutatif , a conduit les théoriciens à appliquer les concepts de la théorie quantique des champs aux théories de jauge non-abéliennes. Ces théories sont également appelées théories de Yang-Mills, d'après le nom de leurs deux inventeurs en 1954 : Chen Yang et Robert Mills. L'utilisation de ces théories a donné naissance à l'actuel modèle standard de la physique des particules.
La première théorie fut la théorie unifiée électro-faible de Glashow, Salam et Weinberg (1962-1968), construite sur le groupe de jauge . Ces auteurs ont reçu le prix Nobel de physique 1979[8]. Dans cette théorie, les particules matérielles (électrons, muons, neutrinos...) interagissent en échangeant un ou plusieurs bosons virtuels : photon, W+, W− et Z0. À la différence du photon, les bosons-vecteurs W et Z sont massifs, leur masse étant de l'ordre de 100 GeV/c². Ceci explique la très courte portée de l'interaction faible. L'introduction d'une masse pour ces particules a d'ailleurs nécessité l'invention d'un mécanisme nouveau, appelé mécanisme de Higgs (du nom de son inventeur Peter Higgs), car l'introduction d'un terme de masse classique dans le Lagrangien briserait l'invariance de jauge. Ce mécanisme, la brisure spontanée de symétrie, a été introduit par Higgs. Il lui correspond une nouvelle particule massive, le boson de Higgs, dont l'existence a été confirmée par le LHC.
Vint ensuite dans les années 1970 la théorie de l'interaction nucléaire forte, élaborée par Gross, Politzer et Wilczek ; ces trois auteurs ont obtenu le prix Nobel de physique 2004[9]. Cette théorie, également baptisée chromodynamique quantique (Q.C.D.), est bâtie sur le groupe de jauge de couleur. Les particules matérielles (quarks) y interagissent en échangeant un ou plusieurs bosons virtuels, les gluons. Comme le photon, les gluons sont des particules de masse nulle. Mais, à la différence du photon, les gluons portent une charge de couleur et interagissent entre eux : contrairement à l'électrodynamique de Maxwell, les théories de Yang-Mills sont en effet non-linéaires. Une autre propriété remarquable de la chromodynamique quantique a été celle de la liberté asymptotique c'est-à-dire le fait pour les quarks de voir leur interaction faiblir lorsque les énergies mises en jeu sont très grandes et au contraire d'interagir très fortement à faible énergie. Ce phénomène particulier est à l'origine du mécanisme de confinement des quarks qui empêche d'observer un quark dans un état isolé. En effet, si on augmente la distance entre deux quarks leur énergie d'interaction devient si grande que d'autres quarks surgissent du vide environnant de sorte que la charge de couleur observée de loin reste toujours nulle.
Une étape décisive dans la validation de ces théories de jauge non-abéliennes a été la preuve de leur renormalisabilité, établie en 1972 par 't Hooft et Veltman, prix Nobel de physique 1999[10].
Physique statistique
Le programme de la physique statistique est de décrire les propriétés macroscopiques des corps à partir de leur contenu microscopique. Un problème important consiste en particulier à décrire les changements d'état, appelés également transitions de phase. Dans certaines conditions expérimentales, certains corps présentent parfois un comportement particulier qu'on range sous l'appellation de phénomène critique, qui sont caractérisés par certains exposants critiques universels. Le calcul de ces exposants critiques par les anciennes méthodes de la physique statistique (méthodes de champ moyen) donnaient des résultats en désaccord avec l'expérience.
À la fin des années 1960, Kadanoff avait introduit l'idée que les transitions de phase présentaient des propriétés d'universalité et d'invariance d'échelle. Wilson eut alors l'idée d'appliquer les méthodes de renormalisation de la théorie quantique des champs. Les succès de cette nouvelle approche ont valu à Wilson le prix Nobel de physique 1982; les spécialistes —Wilson le premier— ont été surpris que Kadanoff n'ait pas été associé à cette prestigieuse reconnaissance.
Pour sa part, la France a contribué de façon significative à cette aventure de calculs d'exposants critiques, avec les travaux réalisés dans les années 1970 par Jean Zinn-Justin (Service de physique théorique du C.É.A., Saclay), Jean-Claude Le Guillou (Laboratoire de physique théorique et hautes énergies, Université Paris 6) et Édouard Brézin (Laboratoire de physique théorique de l'E.N.S.).
Notes et références
Annexes
Bibliographie
Wikiwand in your browser!
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.