Section 02 Théories physiques : méthodes, modèles et applications

I. Interactions fondamentales, physique des particules et de l'univers

Cette partie est dédiée à l'étude des interactions fondamentales qui régissent la physique des deux infinis, des particules à l'univers dans son ensemble. Les dernières années ont été marquées par la découverte tant attendue du boson de Higgs au grand collisionneur à hadrons LHC du CERN et par les mesures cosmologiques de précision réalisées par le satellite Planck. Le boson de Higgs est une pièce majeure de l'édifice désormais parvenu à maturité qu'est le Modèle Standard où il joue un rôle crucial dans la brisure de la symétrie électrofaible. La mission Planck a confirmé les observations antérieures réalisées par WMAP d'un univers plat dominé par l'énergie sombre et la matière noire, deux fluides cosmologiques dont la nature nous échappe encore.

.

A. Interactions fortes

Les interactions fortes, décrites par la chromo-dynamique quantique (QCD), sont importantes à la fois pour la physique aux collisionneurs, où elles forment le fond principal sur lequel pourraient se superposer des signaux de nouvelle physique, pour la physique nucléaire, où elles déterminent la structure des noyaux, et également pour la physique de certains objets stellaires.

L'étude du régime perturbatif de la QCD a connu un essor particulier ces dernières années. Les calculs à l'ordre d'une boucle (NLO) sont désormais routiniers et largement automatisés. Les calculs aux ordres supérieurs (voir aussi Chapitre II) forment un champ de recherche très actif. Leur combinaison avec la resommation des grands logarithmes ou avec les algorithmes de cascades partoniques permet d'obtenir des prédictions précises pour les réactions engendrées aux collisionneurs. L'étude des jets boostés, produits en QCD ou par désintégration de particules massives, est également en plein essor. L'étude des distributions de partons (PDFs) et de leur généralisation (GPDs, TMDs, PDFs polarisées, etc.) est une autre direction de recherche importante, en lien avec le LHC, dont elles constituent une des sources dominantes d'incertitudes, et avec l'accélérateur d'électrons du Jefferson Laboratory, dont le passage à 12 GeV ouvre un nouveau régime d'exploration.

La physique des ions lourds et du plasma quark-gluon (QGP) permet d'explorer la QCD à température finie et à haute densité. Ce vaste domaine recouvre à la fois des aspects perturbatifs et non-perturbatifs. Les collisions plomb-plomb et proton-plomb au LHC, ainsi que les collisions récentes à basse énergie au RHIC, permettent des mesures de plus en plus précises des propriétés hydrodynamiques du QGP et de la manière dont certaines sondes dures sont altérées en le traversant (jet quenching). L'observation d'une très faible viscosité de cisaillement indique un fort couplage effectif, rendant applicable les méthodes holographiques discutées au Chapitre II. Les calculs théoriques, à couplage fort et à couplage faible, commencent également à expliquer la thermalisation rapide du QGP.

La QCD sur réseau (LQCD) reste cependant la seule méthode permettant de calculer les quantités hadroniques non-perturbatives à partir des principes premiers de la théorie. Les progrès théoriques récents et l'accessibilité à des gros moyens de calculs (notamment grâce à GENCI en France), permettent des simulations de plus en plus précises. En utilisant des techniques telles que les quarks dynamiques, la renormalisation non-perturbative, les fermions dits « staggered » ou la théorie des perturbations chirales, on peut accéder aux masses des quarks, aux effets d'isospin, aux tétraquarks et même à la constante de couplage de QCD. La LQCD est aussi la seule manière fiable de calculer les constantes de désintégration, les facteurs de forme et les couplages hadroniques intervenant dans la physique de la saveur. Celle-ci est activement étudiée par des expériences comme Bess III, Belle2, NA62 et sa compréhension est d'une importance capitale pour les recherches de nouvelle physique entreprises à LHCb.

Enfin, l'étude des interactions fortes comprend celle de la matière nucléaire avec tout d'abord la structure des noyaux et leurs propriétés, y compris les noyaux exotiques et la recherche de nouveaux noyaux stables. L'étude des réactions nucléaires à basse énergie (fusion et fission) est importante, notamment pour la physique des réacteurs. L'étude des propriétés thermodynamiques de la matière nucléaire vise à comprendre le diagramme de phase de QCD et l'équation d'état de la matière nucléaire, en relation avec la physique des ions lourds, la QCD sur réseau et la physique stellaire (notamment pour les étoiles à neutron et les supernovae). Des échanges avec les physiciens des atomes froids sont à noter.

B. Interactions électro-faibles : modèle standard et au-delà

La découverte au LHC d'une particule de masse proche de 125 GeV, dont les propriétés semblent coïncider avec celles du boson de Brout-Englert-Higgs, clé de voûte du Modèle Standard (MS), est un jalon capital dans notre compréhension des interactions fondamentales et de l'origine de la masse des particules élémentaires. La nature du mécanisme de brisure de la symétrie électrofaible reste cependant à élucider, notamment la complétion ultraviolette de la dynamique qui engendre une valeur non-nulle dans le vide pour le champ de Higgs. Même si la particule découverte possède les couplages attendus avec tous les degrés de liberté du MS, il est possible qu'elle fasse partie d'une structure plus large dont la symétrie englobe celle du MS, ou qu'elle émerge comme résonance légère d'un nouveau secteur fortement couplé. Il est donc crucial de déterminer si d'autres particules participent au mécanisme de brisure électrofaible. Pour la compréhension et l'interprétation des résultats du LHC, le calcul précis de tous les canaux de production et de désintégration du boson de Higgs est essentiel, incluant l'estimation de leurs incertitudes, mais aussi tous les processus sous-jacents du MS.

Dans le cadre même du MS, la valeur mesurée de la masse du boson de Higgs pose le problème de la stabilité du vide de la théorie électrofaible. En combinaison avec la masse du quark top, cette valeur conduit en effet à un potentiel du champ de Higgs dont le minimum, ou état de vide, pourrait être métastable, sur le point de se désintégrer (à très long terme) par effet tunnel vers un état d'énergie inférieure où l'univers et le MS s'effondreraient entièrement. Des mesures plus précises des masses du quark top et du boson de Higgs ainsi que des calculs plus précis du taux de désintégration du vide électrofaible seront nécessaires pour clore cette question.

Un autre point concerne la stabilité de l'échelle d'énergie électrofaible : dans le cadre du MS, la masse du Higgs varie quadratiquement avec l'échelle d'énergie, et est très sensible à la physique ultraviolette. Parmi d'autres, deux solutions sont le plus souvent invoquées à ce problème dit de naturalité : la supersymétrie, qui postule un partenaire de statistique opposée pour chaque degré de liberté du MS ou de nouvelles interactions fortes qui interviendraient dans la brisure électrofaible.

Toutes ces extensions du MS conduisent à de nouveaux processus activement recherchés au LHC, avec des résultats négatifs à ce jour, repoussant les limites sur les masses des nouvelles particules bien au-delà du TeV. Les efforts théoriques actuels en phénoménologie s'orientent donc vers les modèles de supersymétrie non-minimaux, des scénarios à haute énergie, ou des scénarios avec des signatures différentes de celles recherchées au LHC jusqu'à présent. Dans ce contexte, des outils théoriques sont développés afin de pouvoir ré-interpréter les résultats expérimentaux dans le cadre de n'importe quel modèle de nouvelle physique. Côté « model building », les efforts continuent sur la brisure de la supersymétrie ainsi que sur la construction des modèles de dimensions supplémentaires, branaires, holographiques, et leur insertion dans une théorie UV complète telle que la théorie des cordes.

Les effets de la nouvelle physique sont également recherchés en physique de saveur, dans des désintégrations rares des mesons K et B. Encore une fois, malgré des mesures et des calculs de plus et plus précis, à ce jour tout est parfaitement en accord avec le MS. La violation de saveur dans le secteur de Higgs est parmi les questions importantes.

Enfin, il est maintenant bien établi que les neutrinos ont une masse non-nulle. Un progrès important dans ce domaine est la mesure de l'angle de mélange θ13, qui impacte le développement des modèles de masse (Dirac ou Majorana) des neutrinos. La mesure de la phase δCP mesurant les violations de parité est un point crucial pour les prochaines expériences

C. Astrophysique
des particules

Plus d'un quart de l'univers est constitué de matière noire, une composante essentielle dont la nature non-baryonique nous échappe encore. De nombreux candidats ont été proposés depuis une trentaine d'années, le WIMP (weakly interacting massive particle) étant celui le plus en vogue. Cette espèce neutre et massive, prédite par certaines extensions du MS déjà évoquées, aurait une abondance relique compatible avec les récentes mesures cosmologiques de Planck, sous l'hypothèse que la section efficace de production coïncide avec l'échelle électrofaible. Les axions sont également des candidats naturels à la matière noire, dans la mesure où ils pourraient expliquer l'absence de violation de CP dans les interactions fortes et où ils apparaissent communément dans les modèles basés sur la théorie des cordes. Un neutrino stérile de quelques keV a été récemment étudié en relation avec la leptogénèse cosmologique et la production associée de l'asymétrie entre matière et antimatière. Depuis la découverte du boson de Higgs, de nouvelles idées théoriques postulent un secteur caché, incluant par exemple un boson de jauge supplémentaire Z', qui interagirait avec les particules du MS via un portail contrôlé par le champ de Higgs. Les WIMPs sont activement recherchés par de nombreuses expériences, soit directement via l'énergie de recul que ces particules sont susceptibles de déposer sur les noyaux d'un détecteur terrestre, soit indirectement via les rayons cosmiques qu'elles produisent en s'annihilant dans le halo de la Voie Lactée ou au centre de la Terre ou du Soleil. Le support théorique indispensable à ces recherches est fourni par des codes numériques à l'instar de DarkSUSY à l'étranger en passe d'être supplanté via MicrOMEGAs ou SuperIso Relic en France. Les calculs de densité relique et de section efficace sont désormais effectués à l'ordre d'une boucle. La propagation des rayons cosmiques chargés dans le champ magnétique galactique est modélisée semi analytiquement via (MicrOMEGAs) ce qui permet de dériver rapidement les flux attendus. Toutes les extensions du MS sont gérées. L'expérience LUX a récemment contredit les résultats de DAMA/LIBRA et CoGeNT qui traduisaient en un WIMP léger la modulation annuelle observée. L'excès de positons cosmiques observé par PAMELA au-delà de 10 GeV, confirmé par la collaboration AMS02, a suscité un grand intérêt en raison du fait que les WIMPS conduisent à une distorsion spectrale similaire, une explication rendue cependant fragile par l'absence d'excès d'antiprotons cosmiques et de rayonnement gamma concomitants.

La recherche de la matière noire met également en jeu des problématiques plus astrophysiques, comme la propagation des rayons cosmiques dans la galaxie ou le milieu intergalactique. L'excès de protons et de noyaux d'hélium observé par CREAM pourrait s'interpréter ainsi par l'existence d'une énergie seuil au-delà de laquelle les particules ressentent une turbulence magnétique modifiée. La modélisation des sources violentes comme les sursauteurs gamma et la compréhension des mécanismes d'accélération qui opèrent dans ces objets recouvrent les activités de la section 17 et sont indispensables aux observatoires tels que AUGER, HESS ou le futur CTA.

D. Cosmologie

Irriguée par un flux de données observationnelles de précision inégalée, la cosmologie a connu ces quinze dernières années une révolution, culminant avec l'établissement d'un Modèle Standard de la structure à grande échelle de l'espace-temps, fondé sur la Relativité Générale et sur le Modèle Standard des particules, augmenté d'un secteur hypothétique de matière noire. La publication des premiers résultats de la mission du satellite Planck, mesurant les anisotropies de température du fond diffus cosmologique (CMB) en haute résolution, a été un des faits les plus marquants de ces dernières années, permettant d'affiner les paramètres cosmologiques et notre compréhension de la cosmologie primordiale et récente.

Pour ce qui concerne la cosmologie primordiale, l'étude des fluctuations dans le cadre des modèles d'inflation et leur confrontation avec les mesures de Planck ont permis de valider dans une large mesure le paradigme inflationnaire de la cosmologie primordiale, et de restreindre la classe de modèles inflationnaires cohérents, grâce aux contraintes sur l'indice spectral scalaire, le rapport tenseur-scalaire des fluctuations, ainsi que les non-gaussianités primordiales. Parmi les activités porteuses on note aussi les études de la nucléosynthèse primordiale, des champs magnétiques primordiaux et des effets de lentille gravitationnelle sur le CMB.

Une intense activité théorique a été engendrée par l'observation de l'expansion accélérée de l'univers. Dans le cadre du modèle cosmologique standard, cette accélération s'interprète par un terme de constante cosmologique. Des explications alternatives existent, en termes d'énergie noire ou de gravitation modifiée à très grande distance et faible courbure. Des travaux ont été menés pour étudier l'influence d'éventuelles interactions de l'énergie noire avec la matière noire, ou encore les propriétés d'instabilité gravitationnelle de l'énergie noire. Parmi les études théoriques et phénoménologiques de modèles alternatifs d'accélération, on mentionne la théorie effective de l'énergie noire, les modèles avec dimensions supplémentaires ou avec des termes cinétiques non-standards inspirés de la théorie des cordes, les modèles de Galileon, la théorie de Horndensky ou encore la gravitation massive et les mécanismes d'écrantage gravitationnel. Une activité importante a aussi concerné les tests du modèle standard de la cosmologie (extractions de la valeur de ses paramètres constitutifs) et de ses hypothèses fondamentales (principe d'isotropie et d'homogénéité, invariance des constantes fondamentales de la nature, etc.). La compréhension des structures à grande échelle de l'univers a progressé notamment grâce au développement de nouvelles approches perturbatives pour le calcul du spectre de puissance des fluctuations de matière et les statistiques d'ordres supérieurs.

E. Relativité générale

La théorie de la Relativité Générale d'Einstein forme le cadre théorique actuel décrivant la force de gravitation sur une large gamme d'échelles, depuis l'orbite géostationnaire aux très grandes structures de l'Univers. Ses applications sont innombrables, depuis la cosmologie (paragraphe précédent) et l'astrophysique (voir aussi section 17) aux applications technologiques telles le GPS ou la mesure du géoïde terrestre. Elle prédit en particulier l'existence d'ondes gravitationnelles, validée de façon indirecte depuis les années 1980 par l'observation des pulsars binaires, et dont la détection directe par les expériences LIGO/VIRGO devrait intervenir d'ici 2020, ouvrant ainsi une toute nouvelle fenêtre d'observation de l'Univers. Le succès de ces programmes nécessite l'étude détaillée de la dynamique des systèmes binaires et de leur rayonnement gravitationnel. La non-linéarité des équations d'Einstein interdisant en général une résolution exacte, les méthodes numériques et les approximations analytiques jouent un rôle très important. L'approximation historique post- newtonienne est maintenant accompagnée par des approches de théorie effective dite « one-body » et de théorie effective des champs. Plusieurs développements importants ont été réalisés, parmi lesquels on peut remarquer l'extension de l'ordre perturbatif (y compris les effets de « queue d'onde »), l'inclusion de multipôles élevés, l'inclusion des effets de spin (à la fois dans la dynamique et dans le rayonnement), l'utilisation de méthodes de resommation, l'analyse de l'auto-force gravitationnelle pour les systèmes spiralants de rapport de masse extrême.

Le développement formel de la théorie de la relativité générale est également un terrain de recherche fertile. On peut signaler les études sur la stabilité perturbative des trous noirs et sur leur caractérisation en dimension supérieure à quatre, l'analyse hamiltonienne de la dynamique, l'existence et l'unicité des solutions avec différentes conditions au bord. L'étude de ce type de problème stimule le développement de techniques mathématiques sophistiquées comme l'analyse complexe de formes self-duales et la théorie des twisteurs.

Les singularités de l'espace-temps et les propriétés thermodynamiques des trous noirs prédites par la théorie d'Einstein, ainsi que la cohérence générale du Modèle Standard, motivent toujours le défi de formuler une théorie quantique cohérente de la gravitation, qui résolve les divergences ultraviolettes de l'approche perturbative naïve. Plusieurs approches sont suivies, principalement dans le cadre de la théorie des supercordes, mais aussi de la gravité quantique à boucles, des mousses de spins, des triangulations dynamiques causales ou de la gravité « asymptotiquement saine ». Si ces approches concernent pour l'instant principalement la physique mathématique (cf. Chapitre II), elles suggèrent également de nouveaux scénarios pour la cosmologie, l'astrophysique ou la matière noire.