ARK NETWORK reference.ch · populus.ch    

   SITE DES SCIENCES PHYSIQUES / PROF BECHA ADEL







histoire de la physique

C’est vers 1680 qu’Isaac Newton affirma que la pesanteur et le mouvement des planètes étaient deux manifestations d’une unique force. Cette unification de la gravité terrestre et de la gravité céleste dépasse la simple reconnaissance que les lois de la physique s’appliquent aussi bien au monde sub-lunaire qu’au reste de l’Univers, comme Galilée l’avait démontré en expliquant la formation des ombres sur la Lune, première vérification expérimentale de ce qu’on appelle maintenant principe de symétrie galiléenne. La reconnaissance de l’attraction universelle des corps massifs et sa description en termes mathématiques par une équation, mettant en jeu la constante de gravitation G, ouvrait la voie à la physique moderne. Un siècle plus tard, la mécanique analytique de Lagrange réécrivait la dynamique newtonienne en s’appuyant sur la notion de potentiel gravitationnel et sur le principe de moindre action (« le chemin que tient la lumière est celui pour lequel la quantité d’action est moindre ») que Pierre Louis Moreau de Maupertuis avait formulé dès 1744 en généralisant une description de l’optique due à Fermat. Le cadre mathématique était alors fixé qui allait permettre aux physiciens du XIXe siècle d’expliquer les multiples phénomènes liés à la propagation et aux propriétés variées des corps chargés et des rayonnements. 
L’unification électromagnétique 
Découvrir que la foudre, l’orientation des boussoles et les lois de l’optique procèdent d’une même force fondamentale nécessitait qu’un nombre considérable d’expériences, effectuées avec des moyens techniques de plus en plus perfectionnés, dégagent les lois auxquelles ces phénomènes obéissent. Dès la fin du XVIIIe siècle, les expériences de Benjamin Franklin, de Henry Cavendish et de Charles de Coulomb montraient l’existence d’une force électrostatique variant avec la distance, à l’instar de la force de Newton. Les physiciens du XIXe siècle furent nombreux à conjuguer leurs efforts, mais c’est à Michael Faraday, André Marie Ampère et James Clerk Maxwell que l’on attribue généralement la réalisation de cet ambitieux programme unificateur. Faraday, en particulier, expérimentateur de génie, découvrit en 1831 l’induction, c’est-à-dire l’apparition d’un champ électrique au voisinage d’un champ magnétique variable, et proposa de décrire l’action de l’électricité en termes d’influence plutôt que de mouvement ; le concept de champ, qui reprend cette intuition, allait se révéler extrêmement fécond. 
Maxwell généralisa et formalisa ces résultats en leur donnant en 1872 une forme quasi définitive. Désormais, les phénomènes électriques et magnétiques se comprenaient tous comme la propagation d’ondes se déplaçant à une vitesse dont la mesure révélait qu’elle était si proche de celle de la lumière que Maxwell en inféra que les phénomènes lumineux n’étaient rien d’autre que des oscillations d’un champ électromagnétique. Les équations de Maxwell réalisaient l’unification de tous les phénomènes non gravitationnels connus. La découverte des ondes radio en 1888 par Heinrich Hertz et l’invention par Édouard Branly, Nikola Tesla et Guglielmo Marconi de la T.S.F. allaient consacrer la maîtrise humaine des phénomènes électromagnétiques et inaugurer leur utilisation dans le domaine de la communication à longue distance. 
Les unifications relativistes et le rêve d’Einstein 
Le bouleversement épistémologique apporté par la théorie de la relativité restreinte, énoncée en 1905 par Albert Einstein, concerne l’unification de deux concepts clés de l’appréhension du monde physique : l’espace et le temps. Qu’une telle remise en cause soit venue des difficultés liées à la non-observation de l’éther dans des expériences d’optique marque bien l’étonnante puissance de raisonnement des physiciens. L’espace-temps, qui en résulte, est défini mathématiquement comme un espace pseudo-euclidien à quatre dimensions muni d’une métrique, dite de Minkowski. Des quadrivecteurs – dont la première coordonnée spécifie la date, et les trois suivantes la position –, décrivent un événement ; l’énergie (E) et le vecteur quantité de mouvement (p) sont également réunis en un seul objet mathématique, un quadrivecteur dont la norme est reliée à la masse (m), selon la formule m2c4 = E2 — p2c2, dont chacun connaît la forme pour une particule au repos (p = 0) : E = mc2, où c est la vitesse de la lumière. 
De manière remarquable, les équations du champ électromagnétique formulées par Maxwell impliquaient déjà (sans que l’on s’en soit aperçu) cette nouvelle cinématique ; les champs électrique et magnétique peuvent s’écrire comme les composantes d’un unique tenseur antisymétrique construit à partir d’un quadripotentiel (V, A), où V est le potentiel et A le potentiel vecteur, ce qui donne une forme particulièrement concise et élégante aux équations de Maxwell. 
L’unification impliquée par la théorie de la relativité générale – développée par Einstein entre 1912 et 1915 – est peut-être encore plus révolutionnaire, puisqu’il s’agit d’exprimer l’interaction gravitationnelle comme une courbure géométrique de l’espace-temps. Au lieu du rôle de substrat passif qu’on attribuait à l’espace lorsqu’on décrivait le mouvement des corps, Einstein propose que l’espace-temps et sa métrique deviennent les principaux acteurs d’une description cosmique. Le caractère courbe de cet espace-temps permet de décrire les trajectoires comme des géodésiques, ces lignes réalisant le plus court trajet entre deux points ; les effets de l’attraction gravitationnelle sont alors entièrement pris en compte par la géométrie. Le bien-fondé de cette extrême mathématisation de la physique a été confirmée par de spectaculaires succès expérimentaux : avance du périhélie des planètes, déviation des rayons lumineux au voisinage du Soleil, décalage des fréquences dans un champ gravitationnel, mirages gravitationnels. En sont issues une astrophysique moderne aux objets spectaculaires (pulsars, trous noirs...) et une cosmologie qui part d’un big bang suivi d’une étape d’expansion observée avant de retourner peut-être vers un éventuel big crunch. Elle ouvre naturellement la voie à une entreprise ambitieuse : expliquer toute la physique en termes de géométrie. C’est ce qu’Einstein tentera d’accomplir. 
En 1920, Einstein se plaint au physicien Paul Ehrenfest : « Je n’ai pas fait de progrès [...] le champ électromagnétique n’est pas encore connecté [à la gravitation]. » En janvier 1922, il écrit son premier article sur une théorie unifiant électromagnétisme et gravitation. Trente-cinq ans plus tard, la veille de sa mort, il demandait qu’on lui apporte ses plus récents calculs sur ce même sujet. Einstein n’était pas seul dans cette quête. En effet, le physicien allemand Hermann Weyl avait proposé, dès 1918, une théorie unifiée qu’il fondait sur un principe d’invariance « de jauge » promis à des développements ultérieurs marqués par le succès ; son compatriote Theodor Kaluza avait en particulier montré dès 1919 qu’il était judicieux de considérer une extension de l’espace-temps à cinq dimensions. « À première vue, votre idée me plaît énormément », lui avait écrit Einstein. Le jeune Suédois Oskar Klein avait ajouté que la cinquième dimension pouvait bien être tellement minuscule qu’elle ne serait pas observable, mais aurait pour effet de quantifier pour des raisons géométriques la charge électrique. Cependant, les difficultés théoriques se multiplièrent, et finalement peu de physiciens se joignirent à ces efforts qu’il faut bien considérer, avec le recul, comme alors prématurés. La description quantique des forces fondamentales devait d’abord progresser. Les idées de Kaluza et de Klein reviendront féconder les spéculations théoriques bien plus tard dans le cadre des modèles de supercordes. Et il restera bien peu des efforts d’Einstein dans les acquis menant vers l’unification. 
L’unification quantique 
La quantification de l’énergie rayonnée par les atomes, dès 1900 par Max Planck, mais surtout l’invention du photon par Einstein en 1905 et la proposition d’associer une onde à toute particule par Louis de Broglie en 1924 marquent l’unification de la physique des corps avec celle des ondes en une mécanique ondulatoire, qui allait rapidement évoluer vers la physique quantique, fondement actuel de la description microscopique de la matière. Mathématiquement, cette unification se traduit par la place centrale jouée par une fonction d’onde q(x), amplitude de probabilité de présence satisfaisant à une équation de propagation calquée sur celles que la physique classique assignait aux ondes. Les spectaculaires résultats obtenus dans des expériences de diffraction d’électrons ou de neutrons, d’une part, et dans les collisions de photons sur des noyaux, d’autre part, ont amplement démontré la véracité de cette unification. 
Ce qu’il est convenu d’appeler deuxième quantification ne contredira pas cette unification. La théorie quantique des champs qui en résulte introduit la notion centrale d’opérateur de création (et d’annihilation) agissant sur un état fondamental appelé vide. L’objet qui en résulte, et que certains ont proposé d’appeler quanton, est aussi bien onde que particule. Une distinction fondamentale apparaît cependant entre les champs fermioniques (électron, quark, neutrino...) obéissant au principe d’exclusion de Pauli et les champs bosoniques (photon, gluon, W, Z...). Cette caractérisation, liée au caractère demi-entier ou entier du moment cinétique intrinsèque (le spin) ainsi qu’au type de statistique à laquelle obéissent des ensembles de ces champs, explique les propriétés si différentes, à l’échelle macroscopique, de la matière et des ondes. 
Les interactions nucléaires : obstacles 
La découverte des interactions nucléaires forte et faible, et leur étude systématique, allait tout d’abord éloigner les physiciens de leur programme unificateur. En 1921, James Chadwick inféra des observations des collisions entre des rayonsa et des noyaux l’existence d’une interaction nucléaire non électromagnétique. En 1933, Enrico Fermi proposa la première théorie de la radioactivité b, en terme d’une nouvelle force nucléaire : l’interaction faible. Au fur et à mesure que les expériences s’accumulaient, principalement grâce aux accélérateurs de particules de plus en plus puissants, le caractère particulier de chacune de ces nouvelles forces s’affirmait davantage : de portée minuscule, elles ne semblaient s’exprimer qu’à des échelles subnucléaires ; d’intensités très différentes entre elles, mais aussi par rapport à la gravitation et à l’électromagnétisme, elles n’apparaissaient guère aptes àavoir une même origine. 
La violation par l’interaction faible de la symétrie de parité est un exemple significatif des particularités rencontrées. Alors que les autres forces respectent de façon très précise une invariance dans une transformation miroir (faisant passer toutes les coordonnées spatiales en leurs opposées), il apparaît que l’interaction faible la viole de façon maximale ; ainsi un neutrino émis par radioactivité b aura-t-il toujours une hélicité droite (au sens des tire-bouchons dextrogyres) et jamais l’hélicité gauche qu’aurait son reflet dans un miroir. De même, la symétrie abstraite de conjugaison de charge, qui associe à toute particule son antiparticule, se révélait aussi violée par cette même interaction : l’antineutrino n’était pas au neutrino ce que l’antiproton est au proton. 
Cependant, la difficulté majeure tenait à l’extrême intensité de l’interaction forte. En effet, la théorie des champs quantiques s’était développée pour décrire les phénomènes électromagnétiques, et le calcul de quantités observables reposait sur ce qu’on appelle un traitement perturbatif de l’interaction, c’est-à-dire une suite d’approximations tenant compte de l’échange d’un nombre croissant de champs entre les particules en interaction. Cette méthode est très bien adaptée lorsque les interactions en jeu ont une intensité faible – c’est le cas de l’électrodynamique, où la probabilité d’émission est gouvernée par la constante de structure fine (a = e2/2e0hc = 1/137) –, mais ne semble d’aucun secours dans le cas de l’interaction forte, où la constante correspondante, liée à la probabilité d’émission d’un méson par un proton, est un millier de fois plus grande. Les théoriciens des années 1950 et 1960 privilégiaient donc la recherche d’un formalisme radicalement nouveau pour les forces nucléaires. Comment, dès lors, rêver d’unification alors que les formalismes appliqués aux différentes forces sont si différents ? 
L’invariance de jauge : principe unificateur 
En 1918, la mathématicienne allemande Emmy Noether avait démontré que l’invariance d’une théorie physique par rapport à une transformation continue se traduit par l’existence d’une quantité conservée. L’exemple le plus simple d’application de ce théorème est le lien entre conservation de l’énergie et invariance dans le temps. Dès 1919, Hermann Weyl reconnaissait la conservation de la charge électrique comme la manifestation de l’invariance du lagrangien par une transformation abstraite définie comme la multiplication du tenseur métrique par un facteur eh, tandis que le quadripotentiel électromagnétique subissait la transformation A X A — dh/dx, où A = (V, A) et x le quadrivecteur position. 
Comme une telle transformation dilate l’échelle des longueurs, Weyl l’appelait transformation de jauge. Dix ans plus tard, il appliquera ces idées dans le cadre de la physique quantique, en considérant plutôt la multiplication des fonctions d’ondes q(x) par une « phase » : q(x) X eiaQq(x), où Q est l’opérateur « charge électrique » et a une constante. La dénomination de « jauge » survivra à ce changement de perspective malgré sa perte de sens. L’ensemble des multiplications par les facteurs eiaQ ayant la structure d’un groupe appelé U(1) par les mathématiciens, on parle d’invariance de jauge U(1). L’électrodynamique quantique peut alors se construire comme la théorie minimale qui reste invariante lors des multiplications des fonctions d’onde des électrons par une phase variable avec le point de l’espace-temps q(x) X eia(x)Qq(x). 
Il en ressort en particulier que l’existence du photon, champ médiateur de l’interaction électromagnétique, est nécessaire pour que la symétrie abstraite décrite plus haut soit respectée. On dit alors que le photon est le champ de jauge associé à la symétrie U(1). 
En 1954, Chen-Ning Yang et Robert Mills, du laboratoire de Brookhaven près de New York, généralisaient ce point de vue à des groupes non commutatifs, ouvrant ainsi la voie à la description moderne des interactions nucléaires faible et forte dans le cadre général de la théorie quantique des champs. À partir des années 1960, les physiciens vont postuler l’existence de nouveaux champs de jauge – les bosons W et Z et les gluons – et tirer profit de ce cadre général pour avancer résolument dans la voie de l’unification des interactions fondamentales. 
L’unification électrofaible 
Lorsque le groupe de jauge est plus grand que le groupe U(1), la charge correspondante devient une caractéristique plus abstraite des particules considérées. Les expériences de collision de particules accélérées avaient vite révélé l’existence d’une symétrie approchée : pour les interactions fortes, protons et neutrons se comportaient comme deux états de la même particule ; on parlait des deux états d’isospin du nucléon. L’interaction faible la plus typique est la désintégration b du neutron, qui fait passer le nucléon d’un état d’isospin à un autre. Comme cette réaction s’accompagne de l’émission d’un électron et d’un antineutrino, il était tentant de grouper électron et neutrino en un doublet d’isospin faible et de considérer les transformations de jauge capables de transformer un doublet en un autre doublet. L’idée physique sous-jacente est donc que ce qu’on appelle en un point de l’espace « neutrino » ou « électron » est arbitraire et que la mesure d’une observable quelconque ne doit pas dépendre d’une telle convention. 
Le groupe de jauge qui convient à une telle description des particules doit posséder une représentation (au sens mathématique de la théorie des groupes) de dimension 2 ; le plus simple, appelé SU(2), est très voisin du groupe des rotations de l’espace ordinaire, mais on l’applique ici à un espace abstrait dont les coordonnées ressemblent plus au caractère « neutrino » ou « électron » de la particule qu’à une distance mesurable. Unifier électromagnétisme et interaction faible consiste alors à marier les invariances de jauge selon la symétrie SU(2) et selon U(1) ; en termes mathématiques, cela signifie que la théorie unifiée admet un groupe de symétrie plus large, contenant comme sous-groupe SU(2) et U(1). Les propositions faites indépendamment par le physicien américain Steven Weinberg et par son collègue pakistanais Abdus Salam , de l’Imperial College de Londres, en 1967, prenaient pour groupe le produit SU(2) Z U(1) ; chacune de ces composantes avait pour représentation des particules médiatrices des forces : le triplet W W— W0 pour le premier, un singlet B pour le second, le photon (g) étant une superposition des deux éléments électriquement neutres, W0 et B, la superposition orthogonale étant appelée Z0, selon les équations de mélange : g = cosjW B sinjW W0, Z0 = — sinjW B cosjW W0. 
Les mesures expérimentales montreront que l’angle de mélange jW (appelé angle de Weinberg) est de 290 environ. 
La difficulté majeure de ce programme théorique était liée à l’apparente impossibilité technique de calculer des grandeurs expérimentalement mesurables, du fait de la masse non nulle des bosons W , W— et Z0. Salam et Weinberg suggéraient d’utiliser le mécanisme inventé en 1963 par l’Écossais Peter Higgs, qui, au prix de l’introduction d’un nouveau champ fondamental, permettait de rendre compte de cette masse comme d’une conséquence de la brisure spontanée de la symétrie de jauge au niveau de l’état fondamental (le « vide ») de la théorie. En 1971, le jeune physicien néerlandais Gerhard ’tHooft montrait que le modèle ainsi proposé permettait un calcul cohérent des quantités mesurables expérimentalement, ce qui ouvrait la voie à une réelle épreuve expérimentale. 
La théorie électrofaible réalise-t-elle vraiment une unification des deux forces ? Oui dans la mesure où électromagnétisme et interaction faible sont réellement mélangés, comme l’indique la description du photon en termes de superposition des champs W0 et B. Non si on s’attache à la quête d’une théorie dont l’intensité est définie par une unique constante de couplage. Ce n’est en ce sens qu’une pseudo-unification. Ce modèle, joint à la description des interactions fortes par la chromodynamique quantique (voir infra), est maintenant appelé modèle standard des interactions fondamentales. 
Les preuves expérimentales 
Quelques années plus tard, des expériences menées au Cern, à Genève, apportaient les premières validations du modèle de Weinberg-Salam par la découverte de la nouvelle facette des interactions faibles prédite par cette théorie, à savoir celle exprimée par l’échange du boson Z0. En juillet 1973, les expérimentateurs européens conduits par André Lagarrigue du laboratoire de l’accélérateur linéaire d’Orsay annonçaient l’observation des premiers événements où un neutrino rebondissait sur un électron ou sur un proton sans perdre son identité. Ils avaient pour cela tiré profit d’une nouvelle chambre à bulles de dimensions colossales, surnommée Gargamelle, construite à Saclay par le C.E.A. Remplie de liquides lourds, elle permettait d’optimiser la recherche d’événements rares. Placée dans un intense flux de neutrinos nés des désintégrations des furtifs mésons p et K produits lors d’interactions primaires du faisceau de protons du Cern, elle permit de photographier les réactions prévues par les théoriciens. Pendant quelques mois, la collaboration concurrente du laboratoire Fermi, près de Chicago, annonça des résultats contradictoires, mais l’équipe américaine menée par Rubbia, futur Prix Nobel, révisa finalement son analyse et confirma la découverte européenne. 
Après que le prix Nobel eut récompensé en 1979 (avec l’Américain Sheldon Lee Glashow, pour l’importance de ses travaux de précurseur) les deux auteurs du modèle standard des interactions électrofaibles, la transformation du supersynchrotron à protons du Cern en collisionneur proton-antiproton permit d’y produire des bosons W et Z0 dès 1983. Cette prouesse expérimentale, due à l’opiniâtreté de Carlo Rubbia et à une nouvelle technique de stabilisation des faisceaux d’antiprotons par le Néerlandais Simon Van der Meer, leur valut le prix Nobel en 1984 ; quelque deux cents physiciens rassemblés en deux collaborations avaient pour cela construit deux impressionnants détecteurs de particules placés en deux points d’intersection des faisceaux. À partir de 1989, l’analyse fine des caractéristiques des bosons Z0 grâce au grand collisionneur électron-positon (le L.E.P., Large Electron-Positron Collider) du Cern, conçu comme une gigantesque usine à Z0, munie de quatre ensembles de détection construits et exploités chacun par plusieurs centaines de physiciens et d’ingénieurs, a permis de vérifier les prédictions de la théorie électrofaible avec une précision toujours accrue. 
Le chaînon manquant : le boson de Higgs 
Le mécanisme de brisure spontanée de la symétrie de jauge, inventé par Higgs et mis en œuvre par Salam et Weinberg, est une formalisation quantique d’un phénomène fréquemment observé : les lois auxquelles obéissent des forces peuvent respecter une certaine symétrie sans que le mouvement qu’elles impliquent ne la respecte ; il suffit que les conditions initiales choisissent une des multiples configurations équivalentes. C’est l’exemple classique d’une bille au sommet d’un chapeau mexicain de symétrie de rotation qui, finalement, tombe selon une seule des directions. La réalisation en théorie quantique des champs d’une telle brisure, dite « spontanée », nécessite qu’un champ nouveau possédant au moins deux composantes soit présent partout dans le « vide ». L’effet principal en est alors d’engendrer une masse pour certaines des particules de jauge, par exemple les W , W— et Z0, tout en laissant le photon de masse nulle. 
Le prix à payer est l’existence d’une (ou plusieurs) nouvelle particule, appelée boson de Higgs. Le modèle contraint malheureusement assez peu sa masse, ce qui rend sa recherche extrêmement difficile. Sa principale caractéristique est de se coupler davantage aux particules de masses plus élevées, et donc de se désintégrer préférentiellement dans les particules ayant des masses voisines de la sienne. Trouver ce boson de Higgs sera un des principaux défis de la physique des particules du début du XXIe siècle. Le grand collisionneur à protons (le L.H.C., Large Hadron Collider), qui devrait entrer en service en 2005 au Cern, est principalement dédié à cette découverte attendue. 
Même si quelques hypothèses radicalement différentes ont été proposées, aucune d’entre elles n’a atteint un degré de cohérence suffisant pour donner naissance à une théorie qui soit considérée par les physiciens comme une alternative viable au modèle standard muni du phénomène de Higgs. Cela ne signifie évidemment pas que la nature n’ait pas été plus imaginative que les théoriciens... 
La chromodynamique quantique 
La chromodynamique quantique naquit au début des années 1970 de l’effort pour appliquer les théories de jauge aux interactions fortes des constituants élémentaires de la matière : les quarks. Leur existence avait été postulée en 1963 par des théoriciens (dont Murray Gell-Mann, Prix Nobel de physique en 1969) pour expliquer la multiplicité croissante des particules – mésons et résonances baryoniques – découvertes dans les expériences utilisant les grands synchrotrons à protons. On avait mis quelque temps avant d’attribuer aux quarks une réalité physique. C’est la mise en service en 1967 de l’accélérateur linéaire de Stanford (Californie) qui illumina le paysage. En bombardant des protons par des électrons d’énergie considérable (une vingtaine de milliards d’électronvolts), l’équipe conduite par Jerome Friedman, Henry Kendall et Richard Taylor (qui se partagèrent le prix Nobel de physique 1990 pour ces résultats) avait renouvelé l’expérience qui avait permis à Rutherford de distinguer le noyau dans l’atome ; on observa que les électrons frappant le proton étaient parfois violemment déviés, comme s’ils avaient heurté des sous-constituants ponctuels. Les expériences conduites à Stanford dévoilaient la structure des protons, assemblages complexes de quarks chargés électriquement et d’une éventuelle « glu » mal définie. Mais le comportement de ces nouvelles particules apparaissait paradoxal : fortement liés dans les protons, les quarks semblaient oublier leurs liens (et leurs interactions) à l’intérieur de leur prison : en d’autres termes, l’interaction si forte à l’échelle du femtomètre (10—15 m) devenait inefficace à une échelle dix fois moindre. 
Les approfondissements théoriques des années 1970 allaient résoudre ce paradoxe. La théorie de la chromodynamique quantique proposait de considérer un groupe de jauge, SU(3), agissant sur un espace abstrait dans lequel les quarks sont les membres d’un triplet. Depuis quelques années, il était apparu que chaque quark semblait porteur d’une nouvelle « charge » quantique, qu’on appela couleur : un quark pouvait ainsi être rouge, vert ou bleu. Les bosons de jauge résultant du principe d’invariance sous les transformations dans cet espace abstrait sont alors huit gluons, capables de changer la couleur d’un quark. Le proton est alors formé d’une superposition d’états composés de quarks, d’antiquarks et de gluons liés fortement entre eux. Protons et neutrons sont des mélanges blancs de constituants colorés, dans le même sens que la lumière blanche est une superposition des couleurs de l’arc-en-ciel. Cette théorie est maintenant vérifiée par l’adéquation de nombre de ses conséquences à des mesures expérimentales ; elle est cependant unique en son genre en ce sens que ses champs élémentaires – quarks ou gluons – apparaissent comme fondamentalement incapables d’être isolés ; c’est ce qu’on appelle le confinement. 
Ainsi l’interaction forte se pliait-elle au cadre théorique qui décrivait déjà l’interaction électrofaible ; les trois interactions fondamentales qu’on savait quantifier étaient décrites comme des théories quantiques des champs obéissant chacune à un principe d’invariance de jauge par rapport à un groupe de symétrie agissant dans un espace abstrait. Des « charges » conservées étaient associées à cette invariance : charge électrique, isospin faible et couleur. Il restait à unifier vraiment les interactions électrofaible et forte et à expliquer comment cette unification était si peu apparente dans la plupart des expériences. La gravitation, quant à elle, présentait des caractéristiques qui la rendaient fort difficile à intégrer dans un schéma unificateur. 
Groupes de symétrie et transitions de phase 
Il est fréquent qu’un solide cristallin présente un degré de symétrie différent suivant la température. En règle générale, une température plus élevée correspond à une symétrie plus parfaite, ce qu’on comprend aisément : les vibrations thermiques permettent aux atomes d’explorer maintes configurations et de « choisir » celle qui reste invariante par le plus grand nombre de transformations. Au niveau fondamental, on parle de phases différentes, et de transitions de phases apparaissant lorsque des conditions (de température et de pression, par exemple) adéquates sont réunies : la solidification ou l’ébullition d’un liquide en sont des exemples. 
Il est naturel de considérer la brisure spontanée de symétrie de la théorie électrofaible comme liée à une phase – au sens défini ci-dessus – de l’Univers. Puisque l’Univers s’est sans cesse refroidi, au fur et à mesure de son expansion, depuis l’explosion primordiale (selon toute théorie du big bang compatible avec les observations astrophysiques), la transition de phase s’est passée à une date qu’on peut grossièrement estimer à quelque 10—12 seconde. Avant cette date, le vide était dans une configuration où la symétrie de jauge n’était pas brisée, les W , W— et Z0 étaient donc de masse nulle, comme l’étaient sans doute toutes les autres particules. 
L’unification des intensités des forces 
La théorie quantique des champs amène à considérer que l’intensité d’une interaction dépend de l’échelle de distance (ou d’énergie) considérée. Cette notion est liée aux propriétés d’écrantage que le vide quantique possède. Ainsi, l’électrodynamique quantique considère le vide comme un réservoir de paires électron-positon prêtes à être excitées. Un électron polarise ainsi le vide qui l’entoure qui se comporte alors en quelque sorte comme un milieu diélectrique : une charge test ne sentira l’effet de la charge de l’électron que partiellement écrantée par cet effet ; il en résulte que la charge effective d’une particule décroît avec la distance. Une théorie de jauge dont le groupe de symétrie est non commutatif possède au contraire la remarquable propriété de liberté asymptotique ; c’est le cas de la chromodynamique quantique : lorsqu’on éloigne deux quarks l’un de l’autre, leur attraction mutuelle croît à cause d’un phénomène d’antiécrantage dû au fait que les gluons sont eux-mêmes colorés. L’interaction, ténue à courte distance, devient ainsi extraordinairement intense à l’échelle du femtomètre ; inversement, les quarks solidement liés à l’intérieur du proton réagissent comme des particules quasi libres lorsqu’un projectile très énergique vient sonder leur comportement à l’intérieur de leur prison : c’est exactement le comportement paradoxal qui avait été observé expérimentalement à Stanford. 
Il s’ensuit naturellement que des forces d’intensités très différentes aux échelles de distance (ou d’énergie) habituelles peuvent devenir comparables à d’autres échelles. Par exemple, la « constante » électromagnétique aem croît et celle d’interaction forte as décroît lorsque l’échelle de distance considérée diminue. Ces effets sont très faibles, et il faut des changements d’échelle considérables pour qu’ils deviennent appréciables. On a par exemple mesuré que aem passe de 1/137 à 1/128 lorsque la distance varie de 10—10 mètre à quelque 10-—18 mètre ; on estime qu’à des distances de l’ordre de 10-—32 mètre, les intensités des interactions électrofaible et forte deviennent comparables. Les énergies capables d’atteindre une telle résolution sont inimaginables hors des conditions exceptionnelles des instants tout proches du big bang. 
Les scénarios de la grande unification 
Encouragés par l’impressionnant progrès théorique que constituait le modèle standard des interactions électrofaible et forte, les théoriciens se remirent à la poursuite de l’unification. Dès 1972, Abdus Salam et son collaborateur Jogesh Pati proposèrent qu’électrons et neutrinos constituent une quatrième sorte de quarks, portant une couleur distincte. En 1974, Sheldon Glashow et Howard Georgi publiaient un article au titre provocateur : « L’Unité de toutes les forces des particules élémentaires » dont l’introduction spécifiait qu’ils avançaient une suite d’hypothèses et de spéculations menant inévitablement à la conclusion que « SU(5) est le groupe de jauge de l’Univers [et que] les interactions électromagnétiques faible et forte ne sont que différentes manifestations de la même interaction fondamentale caractérisée par une unique constante de couplage ». 
Laissant de côté la gravitation, Georgi et Glashow proposaient de grouper les particules en quintuplets et décuplets, mêlant quarks, électrons et neutrinos comme des composantes d’un champ unifié. Les vingt-quatre bosons de jauge correspondants comprenaient, outre les déjà classiques photon, gluons, bosons W , W—et Z0, douze nouveaux champs aux propriétés remarquables. Porteurs à la fois d’une charge de couleur et du caractère propre aux électrons et neutrinos, ces leptoquarks X et Y font ainsi communiquer entre eux le monde des quarks et celui des électrons. Une estimation grossière de leur masse permet de l’évaluer à quelque mille milliards de fois celle des bosons W ou Z0. La vérification expérimentale d’une telle théorie ne pourra être qu’indirecte. 
Une telle symétrie permet ainsi de comprendre un fait qui ne manque pas d’étonner bien des physiciens : Comment se fait-il que l’atome d’hydrogène soit exactement neutre ? En d’autres termes, par quelle miraculeuse coïncidence les charges du proton et de l’électron se compensent-elles si bien entre elles ? Si quarks et électrons sont groupés en multiplets, comme différentes composantes d’un même champ fondamental, cette propriété n’a plus rien d’un accident. 
Comme dans le cas de la théorie électrofaible, le caractère massif des bosons de jauge X et Y est lié à la brisure spontanée de la symétrie de jauge SU(5) et à l’existence de champs de Higgs supplémentaires. Une transition de phase dans les tout premiers instants de l’Univers est encore invoquée pour passer d’un état primordial hautement symétrique à un état tel que celui observé par les expériences. 
Des scénarios de grande unification utilisant d’autres groupes de jauge furent proposés, chacun apportant sa panoplie de nouvelles particules et de propositions de vérifications expérimentales. Tous annonçaient l’éventualité d’une échelle d’unification extrêmement éloignée, mais ils s’accordaient à prédire que le proton (et le neutron lié dans les noyaux) en acquerraient un caractère instable, qui pouvait se quantifier théoriquement en une durée moyenne (au sens statistique) de demi-vie de l’ordre de quelque 1030 années. Cette prédiction lança un vaste programme de recherches expérimentales. 
L’introuvable mort du proton 
Si quarks et électrons communiquent par l’intermédiaire de ces messagers que sont les leptoquarks, il est inévitable que le proton puisse se désintégrer en des particules plus légères (un positon et quelques photons, par exemple). La probabilité d’une telle réaction dépend de l’intensité de l’interaction unifiée et de la masse des leptoquarks. Il est naturel que celle-ci corresponde à l’échelle d’unification envisagée plus haut, et donc que les leptoquarks aient une masse de l’ordre de 1014 fois celle du proton. Il s’ensuit que le proton se désintégrerait avec une demi-vie de l’ordre de 1031 années, c’est-à-dire qu’en moyenne un proton sur 1031 se désintègre chaque année. Le principe du vaste programme de recherches qui fut lancé pour vérifier cette prédiction était simple : il s’agissait de surveiller suffisamment de protons (et de neutrons liés) pendant suffisamment de temps. La réalisation pratique le fut beaucoup moins, puisqu’il fallait s’affranchir de tous les « bruits de fond » imaginables, les noyaux radioactifs, par exemple, mais surtout les effets des rayonnements cosmiques qui peuvent simuler de tels événements. Pour cela, les physiciens enterrèrent dans d’anciennes mines d’or ou de sel, ou dans des tunnels (du Mont-Blanc et du Fréjus, par exemple) de grandes quantités de matière (eau très pure ou plaques de fer) sous la haute surveillance d’appareils de détection très sensibles. Le résultat fut décevant pour le programme d’unification : on n’observa aucun événement non ambigu, et on ne put qu’en déduire une limite expérimentale de la durée de vie du proton augmentée de plusieurs ordres de grandeur. 
Spéculations mathématiques : supersymétrie et supercordes 
Il resterait à unifier la gravitation avec les trois autres forces fondamentales. Dans ce dernier programme, les physiciens se heurtent à des difficultés considérables, qui commencent dès que l’on tente une formulation quantique de la relativité générale. Une extension des théories de jauge à une supersymétrie qui associerait des particules de spins différents lève quelques obstacles. La raison en est que le spin est si étroitement lié à une transformation spatio-temporelle – en fait aux rotations spatiales – qu’une succession de deux supertransformations se traduit en général par un déplacement dans l’espace-temps. Il s’ensuit qu’imposer une invariance sous une telle transformation implique qu’on obéisse au principe fondateur de la relativité générale ; puisqu’on est dans un cadre quantique, on réalise l’existence d’un graviton (de spin 2) et d’un gravitino (de spin 3/2) qui l’accompagne, sans parler de nombreuses nouvelles particules de spin 0, 1/2 ou 1. La traque de ces particules exotiques se poursuit activement et constitue le deuxième axe majeur de la recherche actuelle en physique des particules. Si aucun candidat sérieux à ce statut de particule n’a encore été détecté, les mesures extrêmement précises des intensités des interactions électrofaible et forte faites au L.E.P. ont apporté un début de validation à l’idée d’unification supersymétrique. En effet, les effets d’écrantage qui permettent à ces intensités de dépendre de l’échelle de résolution sont modifiés lorsque le modèle standard est muni d’une extension supersymétrique : on observe alors que les extrapolations des valeurs mesurées convergent, ce qui n’est pas le cas dans une grande unification sans supersymétrie. 
L’approfondissement de cette théorie a amené les théoriciens à explorer des idées rompant avec la théorie des champs et à considérer, en particulier, les particules comme de minuscules cordes dans un espace de dimension supérieure à quatre (dont certaines composantes seraient compactes, et donc invisibles à nos sens) plutôt que comme des points dans un espace à quatre dimensions. La mathématique sous-jacente est alors la géométrie des surfaces de Riemann à deux dimensions. Ces théories de supercordes ont des propriétés mathématiques particulièrement bienvenues, et elles satisfont toutes à une symétrie nouvelle, la symétrie conforme. De nombreux théoriciens voient en elles la possibilité d’accéder assez rapidement à l’ultime théorie unifiée. Mais aucune indication expérimentale ne vient encore étayer ces travaux auxquels on pourrait appliquer la mise en garde faite par Dirac en 1968 : « Dans tout domaine de la physique où l’on connaît très peu de choses, il faut rester proche des faits expérimentaux si l’on veut éviter de s’adonner à de folles spéculations qui seront sans doute fausses. » Reste que le rêve d’unification des forces élémentaires paraît moins fou maintenant qu’un certain nombre d’éléments – invariance de jauge, unification électrofaible, découverte des gluons – ont été rassemblés. La mise en évidence du phénomène de Higgs et des mécanismes de transition de phases sont les prochaines étapes obligées de la validation d’un tel scénario théorique.b> 

   
 Home  | Livre d'Or  | Album-Photo  | Contact
   
 
(c) 2009 Mr BECHA Adel - Créé à l'aide de Populus.
Modifié en dernier lieu le 22.01.2009
- Déjà 8325 visites sur ce site!