Section 02 Théories physiques : méthodes, modèles et applications

Extrait de la déclaration adoptée par le Comité national de la recherche scientifique réuni en session plénière extraordinaire le 11 juin 2014

La recherche est indispensable au développement des connaissances, au dynamisme économique ainsi qu'à l'entretien de l'esprit critique et démocratique. La pérennité des emplois scientifiques est indispensable à la liberté et la fécondité de la recherche. Le Comité national de la recherche scientifique rassemble tous les personnels de la recherche publique (chercheurs, enseignants-chercheurs, ingénieurs et techniciens). Ses membres, réunis en session plénière extraordinaire, demandent de toute urgence un plan pluriannuel ambitieux pour l'emploi scientifique. Ils affirment que la réduction continue de l'emploi scientifique est le résultat de choix politiques et non une conséquence de la conjoncture économique.

L'emploi scientifique est l'investissement d'avenir par excellence

Conserver en l'état le budget de l'enseignement supérieur et de la recherche revient à prolonger son déclin. Stabiliser les effectifs ne suffirait pas non plus à redynamiser la recherche : il faut envoyer un signe fort aux jeunes qui intègrent aujourd'hui l'enseignement supérieur en leur donnant les moyens et l'envie de faire de la recherche. On ne peut pas sacrifier les milliers de jeunes sans statut qui font la recherche d'aujourd'hui. Il faut de toute urgence résorber la précarité. Cela suppose la création, sur plusieurs années, de plusieurs milliers de postes supplémentaires dans le service public ainsi qu'une vraie politique d'incitation à l'emploi des docteurs dans le secteur privé, notamment industriel.

Composition de la section

Jean-Michel Maillet (président de section) ; Simone Speziale (secrétaire scientifique) ; Mokhtar Adda Bedia ; Moha Ahbar ; Pascal Baseilhac ; Laurent Bonnet ; Luigi Cantini ; Antonio Celani ; Bérengère Dubrulle ; Silvio Franz ; Jesper Jacobsen ; Sabine Kraml ; Karine Le Hur ; Christian Marinoni ; Didier Perini ; Boris Pioline ; Pierre Salati ; Grégory Soyez ; Patrizia Vignolo ; Francesco Zamponi.

Résumé

La section 02 se caractérise par une forte interdisciplinarité et des thèmes qui s'étendent de la cosmologie à la biophysique, et concernent entre autres la physique des particules, la physique mathématique, la matière condensée, la physique statistique et la physique non-linéaire ainsi que leurs applications. Avec ce très large spectre, ses interfaces et interactions fécondes s'étendent vers de nombreuses disciplines, représentées notamment au sein des sections 01, 03, 04, 05, 06, 11, 17, 41 et 51 du CNRS. Alors que des expérimentateurs en physique non linéaire et en mécanique statistique proches de la modélisation font pleinement partie de la section 02, sa plus grande composante est dédiée à la physique théorique, un domaine qui a su contribuer à un grand nombre de percées scientifiques ces dernières années, allant de la compréhension de la structure de l'univers à l'analyse et applications du graphène et des isolants topologiques. Ces résultats sont issus d'une approche de la recherche libre de tout pilotage permettant les ruptures conceptuelles indispensables et fructueuses, un contexte que le CNRS a eu le mérite de favoriser depuis sa création, mais qui risque d'être mis à rude épreuve par les toutes dernières structurations des financements sur contrats de la recherche, en particulier avec la disparition effective des programmes « blancs » de l'ANR, et par les menaces qui pèsent actuellement sur l'emploi scientifique au sein des organismes public de recherche.

Introduction

Le vaste périmètre de la section 02 qui s'étend de la cosmologie à la biophysique en passant par les interactions fondamentales, la physique mathématique, la matière condensée, la physique statistique et la physique non-linéaire ainsi que leurs applications, rend la rédaction d'un rapport de conjoncture, sans parler de prospective, très périlleuse ; nous ne pourrons donc prétendre ici ni à l'exhaustivité, le champ est trop vaste, ni même à avoir mis à coup sûr en avant les thèmes destinés à devenir les plus importants dans les quatre ou cinq ans à venir. Nous devons donc décourager d'emblée à la fois ceux qui pourraient penser qu'un hypothétique pilotage de la recherche fondamentale est possible voire souhaitable, mais également nos plus jeunes collègues qui chercheraient ici une inspiration pour leurs futurs travaux. La recherche fondamentale requiert tout à la fois imagination, audace et rigueur dans sa quête incessante de nouveaux paradigmes propres à expliquer les phénomènes qui nous entourent ; et ce que nous pouvons souhaiter le plus ardemment pour le futur est d'être surpris par des ruptures conceptuelles que nous n'aurions ni anticipées ou même imaginées dans ce rapport.

Deux citations célèbres viennent ici à l'esprit, l'une d'Albert Einstein « If we knew what it was we were doing, it would not be called research, would it ? » et l'autre de Niels Bohr, déjà mentionnée par nos prédécesseurs « Prediction is very difficult, especially if it's about the future ».

Nous avons donc essayé de rassembler dans les pages qui suivent les résultats et les directions de recherche qui aujourd'hui nous semblent, avec toute l'humilité et la modestie qui s'imposent, les plus remarquables et les plus prometteuses. Nous espérons que cet état des lieux fournira tout au moins une vision même partielle de la richesse thématique de la section 02 et de ses interfaces actuelles qui concernent entre beaucoup d'autres l'astrophysique, la biologie, la géophysique, ou encore les mathématiques.

Les thèmes couverts par la section 02 ont entre eux de nombreux recouvrements, parfois inattendus, en particulier via les méthodes et modèles qu'ils utilisent. C'est en effet au travers d'outils toujours en développement tels la théorie quantique des champs, la physique statistique et le corpus des méthodes, qu'elles soient perturbatives ou non perturbatives, exactes ou numériques que transparaissent les liens féconds unissant les domaines très diversifiés de la section intitulée « Théories Physiques ».

Notons enfin que la section 02 a des interfaces multiples en particulier avec les sections 01, 03, 04, 05, 06, 11, 17, 41 ou 51, très souvent au sein de laboratoires à forte composante expérimentale, alors que dans le même temps des expérimentateurs en physique non linéaire et en mécanique statistique, proches de la modélisation, font partie de la section 02.

Nous avons structuré ce rapport selon les quatre chapitres suivants : interactions fondamentales, physique des particules et de l'univers, physique mathématique et méthodes théoriques, matière condensée et systèmes quantiques, physique statistique et non linéaire et applications.

I. Interactions fondamentales, physique des particules et de l'univers

Cette partie est dédiée à l'étude des interactions fondamentales qui régissent la physique des deux infinis, des particules à l'univers dans son ensemble. Les dernières années ont été marquées par la découverte tant attendue du boson de Higgs au grand collisionneur à hadrons LHC du CERN et par les mesures cosmologiques de précision réalisées par le satellite Planck. Le boson de Higgs est une pièce majeure de l'édifice désormais parvenu à maturité qu'est le Modèle Standard où il joue un rôle crucial dans la brisure de la symétrie électrofaible. La mission Planck a confirmé les observations antérieures réalisées par WMAP d'un univers plat dominé par l'énergie sombre et la matière noire, deux fluides cosmologiques dont la nature nous échappe encore.

.

A. Interactions fortes

Les interactions fortes, décrites par la chromo-dynamique quantique (QCD), sont importantes à la fois pour la physique aux collisionneurs, où elles forment le fond principal sur lequel pourraient se superposer des signaux de nouvelle physique, pour la physique nucléaire, où elles déterminent la structure des noyaux, et également pour la physique de certains objets stellaires.

L'étude du régime perturbatif de la QCD a connu un essor particulier ces dernières années. Les calculs à l'ordre d'une boucle (NLO) sont désormais routiniers et largement automatisés. Les calculs aux ordres supérieurs (voir aussi Chapitre II) forment un champ de recherche très actif. Leur combinaison avec la resommation des grands logarithmes ou avec les algorithmes de cascades partoniques permet d'obtenir des prédictions précises pour les réactions engendrées aux collisionneurs. L'étude des jets boostés, produits en QCD ou par désintégration de particules massives, est également en plein essor. L'étude des distributions de partons (PDFs) et de leur généralisation (GPDs, TMDs, PDFs polarisées, etc.) est une autre direction de recherche importante, en lien avec le LHC, dont elles constituent une des sources dominantes d'incertitudes, et avec l'accélérateur d'électrons du Jefferson Laboratory, dont le passage à 12 GeV ouvre un nouveau régime d'exploration.

La physique des ions lourds et du plasma quark-gluon (QGP) permet d'explorer la QCD à température finie et à haute densité. Ce vaste domaine recouvre à la fois des aspects perturbatifs et non-perturbatifs. Les collisions plomb-plomb et proton-plomb au LHC, ainsi que les collisions récentes à basse énergie au RHIC, permettent des mesures de plus en plus précises des propriétés hydrodynamiques du QGP et de la manière dont certaines sondes dures sont altérées en le traversant (jet quenching). L'observation d'une très faible viscosité de cisaillement indique un fort couplage effectif, rendant applicable les méthodes holographiques discutées au Chapitre II. Les calculs théoriques, à couplage fort et à couplage faible, commencent également à expliquer la thermalisation rapide du QGP.

La QCD sur réseau (LQCD) reste cependant la seule méthode permettant de calculer les quantités hadroniques non-perturbatives à partir des principes premiers de la théorie. Les progrès théoriques récents et l'accessibilité à des gros moyens de calculs (notamment grâce à GENCI en France), permettent des simulations de plus en plus précises. En utilisant des techniques telles que les quarks dynamiques, la renormalisation non-perturbative, les fermions dits « staggered » ou la théorie des perturbations chirales, on peut accéder aux masses des quarks, aux effets d'isospin, aux tétraquarks et même à la constante de couplage de QCD. La LQCD est aussi la seule manière fiable de calculer les constantes de désintégration, les facteurs de forme et les couplages hadroniques intervenant dans la physique de la saveur. Celle-ci est activement étudiée par des expériences comme Bess III, Belle2, NA62 et sa compréhension est d'une importance capitale pour les recherches de nouvelle physique entreprises à LHCb.

Enfin, l'étude des interactions fortes comprend celle de la matière nucléaire avec tout d'abord la structure des noyaux et leurs propriétés, y compris les noyaux exotiques et la recherche de nouveaux noyaux stables. L'étude des réactions nucléaires à basse énergie (fusion et fission) est importante, notamment pour la physique des réacteurs. L'étude des propriétés thermodynamiques de la matière nucléaire vise à comprendre le diagramme de phase de QCD et l'équation d'état de la matière nucléaire, en relation avec la physique des ions lourds, la QCD sur réseau et la physique stellaire (notamment pour les étoiles à neutron et les supernovae). Des échanges avec les physiciens des atomes froids sont à noter.

B. Interactions électro-faibles : modèle standard et au-delà

La découverte au LHC d'une particule de masse proche de 125 GeV, dont les propriétés semblent coïncider avec celles du boson de Brout-Englert-Higgs, clé de voûte du Modèle Standard (MS), est un jalon capital dans notre compréhension des interactions fondamentales et de l'origine de la masse des particules élémentaires. La nature du mécanisme de brisure de la symétrie électrofaible reste cependant à élucider, notamment la complétion ultraviolette de la dynamique qui engendre une valeur non-nulle dans le vide pour le champ de Higgs. Même si la particule découverte possède les couplages attendus avec tous les degrés de liberté du MS, il est possible qu'elle fasse partie d'une structure plus large dont la symétrie englobe celle du MS, ou qu'elle émerge comme résonance légère d'un nouveau secteur fortement couplé. Il est donc crucial de déterminer si d'autres particules participent au mécanisme de brisure électrofaible. Pour la compréhension et l'interprétation des résultats du LHC, le calcul précis de tous les canaux de production et de désintégration du boson de Higgs est essentiel, incluant l'estimation de leurs incertitudes, mais aussi tous les processus sous-jacents du MS.

Dans le cadre même du MS, la valeur mesurée de la masse du boson de Higgs pose le problème de la stabilité du vide de la théorie électrofaible. En combinaison avec la masse du quark top, cette valeur conduit en effet à un potentiel du champ de Higgs dont le minimum, ou état de vide, pourrait être métastable, sur le point de se désintégrer (à très long terme) par effet tunnel vers un état d'énergie inférieure où l'univers et le MS s'effondreraient entièrement. Des mesures plus précises des masses du quark top et du boson de Higgs ainsi que des calculs plus précis du taux de désintégration du vide électrofaible seront nécessaires pour clore cette question.

Un autre point concerne la stabilité de l'échelle d'énergie électrofaible : dans le cadre du MS, la masse du Higgs varie quadratiquement avec l'échelle d'énergie, et est très sensible à la physique ultraviolette. Parmi d'autres, deux solutions sont le plus souvent invoquées à ce problème dit de naturalité : la supersymétrie, qui postule un partenaire de statistique opposée pour chaque degré de liberté du MS ou de nouvelles interactions fortes qui interviendraient dans la brisure électrofaible.

Toutes ces extensions du MS conduisent à de nouveaux processus activement recherchés au LHC, avec des résultats négatifs à ce jour, repoussant les limites sur les masses des nouvelles particules bien au-delà du TeV. Les efforts théoriques actuels en phénoménologie s'orientent donc vers les modèles de supersymétrie non-minimaux, des scénarios à haute énergie, ou des scénarios avec des signatures différentes de celles recherchées au LHC jusqu'à présent. Dans ce contexte, des outils théoriques sont développés afin de pouvoir ré-interpréter les résultats expérimentaux dans le cadre de n'importe quel modèle de nouvelle physique. Côté « model building », les efforts continuent sur la brisure de la supersymétrie ainsi que sur la construction des modèles de dimensions supplémentaires, branaires, holographiques, et leur insertion dans une théorie UV complète telle que la théorie des cordes.

Les effets de la nouvelle physique sont également recherchés en physique de saveur, dans des désintégrations rares des mesons K et B. Encore une fois, malgré des mesures et des calculs de plus et plus précis, à ce jour tout est parfaitement en accord avec le MS. La violation de saveur dans le secteur de Higgs est parmi les questions importantes.

Enfin, il est maintenant bien établi que les neutrinos ont une masse non-nulle. Un progrès important dans ce domaine est la mesure de l'angle de mélange θ13, qui impacte le développement des modèles de masse (Dirac ou Majorana) des neutrinos. La mesure de la phase δCP mesurant les violations de parité est un point crucial pour les prochaines expériences

C. Astrophysique
des particules

Plus d'un quart de l'univers est constitué de matière noire, une composante essentielle dont la nature non-baryonique nous échappe encore. De nombreux candidats ont été proposés depuis une trentaine d'années, le WIMP (weakly interacting massive particle) étant celui le plus en vogue. Cette espèce neutre et massive, prédite par certaines extensions du MS déjà évoquées, aurait une abondance relique compatible avec les récentes mesures cosmologiques de Planck, sous l'hypothèse que la section efficace de production coïncide avec l'échelle électrofaible. Les axions sont également des candidats naturels à la matière noire, dans la mesure où ils pourraient expliquer l'absence de violation de CP dans les interactions fortes et où ils apparaissent communément dans les modèles basés sur la théorie des cordes. Un neutrino stérile de quelques keV a été récemment étudié en relation avec la leptogénèse cosmologique et la production associée de l'asymétrie entre matière et antimatière. Depuis la découverte du boson de Higgs, de nouvelles idées théoriques postulent un secteur caché, incluant par exemple un boson de jauge supplémentaire Z', qui interagirait avec les particules du MS via un portail contrôlé par le champ de Higgs. Les WIMPs sont activement recherchés par de nombreuses expériences, soit directement via l'énergie de recul que ces particules sont susceptibles de déposer sur les noyaux d'un détecteur terrestre, soit indirectement via les rayons cosmiques qu'elles produisent en s'annihilant dans le halo de la Voie Lactée ou au centre de la Terre ou du Soleil. Le support théorique indispensable à ces recherches est fourni par des codes numériques à l'instar de DarkSUSY à l'étranger en passe d'être supplanté via MicrOMEGAs ou SuperIso Relic en France. Les calculs de densité relique et de section efficace sont désormais effectués à l'ordre d'une boucle. La propagation des rayons cosmiques chargés dans le champ magnétique galactique est modélisée semi analytiquement via (MicrOMEGAs) ce qui permet de dériver rapidement les flux attendus. Toutes les extensions du MS sont gérées. L'expérience LUX a récemment contredit les résultats de DAMA/LIBRA et CoGeNT qui traduisaient en un WIMP léger la modulation annuelle observée. L'excès de positons cosmiques observé par PAMELA au-delà de 10 GeV, confirmé par la collaboration AMS02, a suscité un grand intérêt en raison du fait que les WIMPS conduisent à une distorsion spectrale similaire, une explication rendue cependant fragile par l'absence d'excès d'antiprotons cosmiques et de rayonnement gamma concomitants.

La recherche de la matière noire met également en jeu des problématiques plus astrophysiques, comme la propagation des rayons cosmiques dans la galaxie ou le milieu intergalactique. L'excès de protons et de noyaux d'hélium observé par CREAM pourrait s'interpréter ainsi par l'existence d'une énergie seuil au-delà de laquelle les particules ressentent une turbulence magnétique modifiée. La modélisation des sources violentes comme les sursauteurs gamma et la compréhension des mécanismes d'accélération qui opèrent dans ces objets recouvrent les activités de la section 17 et sont indispensables aux observatoires tels que AUGER, HESS ou le futur CTA.

D. Cosmologie

Irriguée par un flux de données observationnelles de précision inégalée, la cosmologie a connu ces quinze dernières années une révolution, culminant avec l'établissement d'un Modèle Standard de la structure à grande échelle de l'espace-temps, fondé sur la Relativité Générale et sur le Modèle Standard des particules, augmenté d'un secteur hypothétique de matière noire. La publication des premiers résultats de la mission du satellite Planck, mesurant les anisotropies de température du fond diffus cosmologique (CMB) en haute résolution, a été un des faits les plus marquants de ces dernières années, permettant d'affiner les paramètres cosmologiques et notre compréhension de la cosmologie primordiale et récente.

Pour ce qui concerne la cosmologie primordiale, l'étude des fluctuations dans le cadre des modèles d'inflation et leur confrontation avec les mesures de Planck ont permis de valider dans une large mesure le paradigme inflationnaire de la cosmologie primordiale, et de restreindre la classe de modèles inflationnaires cohérents, grâce aux contraintes sur l'indice spectral scalaire, le rapport tenseur-scalaire des fluctuations, ainsi que les non-gaussianités primordiales. Parmi les activités porteuses on note aussi les études de la nucléosynthèse primordiale, des champs magnétiques primordiaux et des effets de lentille gravitationnelle sur le CMB.

Une intense activité théorique a été engendrée par l'observation de l'expansion accélérée de l'univers. Dans le cadre du modèle cosmologique standard, cette accélération s'interprète par un terme de constante cosmologique. Des explications alternatives existent, en termes d'énergie noire ou de gravitation modifiée à très grande distance et faible courbure. Des travaux ont été menés pour étudier l'influence d'éventuelles interactions de l'énergie noire avec la matière noire, ou encore les propriétés d'instabilité gravitationnelle de l'énergie noire. Parmi les études théoriques et phénoménologiques de modèles alternatifs d'accélération, on mentionne la théorie effective de l'énergie noire, les modèles avec dimensions supplémentaires ou avec des termes cinétiques non-standards inspirés de la théorie des cordes, les modèles de Galileon, la théorie de Horndensky ou encore la gravitation massive et les mécanismes d'écrantage gravitationnel. Une activité importante a aussi concerné les tests du modèle standard de la cosmologie (extractions de la valeur de ses paramètres constitutifs) et de ses hypothèses fondamentales (principe d'isotropie et d'homogénéité, invariance des constantes fondamentales de la nature, etc.). La compréhension des structures à grande échelle de l'univers a progressé notamment grâce au développement de nouvelles approches perturbatives pour le calcul du spectre de puissance des fluctuations de matière et les statistiques d'ordres supérieurs.

E. Relativité générale

La théorie de la Relativité Générale d'Einstein forme le cadre théorique actuel décrivant la force de gravitation sur une large gamme d'échelles, depuis l'orbite géostationnaire aux très grandes structures de l'Univers. Ses applications sont innombrables, depuis la cosmologie (paragraphe précédent) et l'astrophysique (voir aussi section 17) aux applications technologiques telles le GPS ou la mesure du géoïde terrestre. Elle prédit en particulier l'existence d'ondes gravitationnelles, validée de façon indirecte depuis les années 1980 par l'observation des pulsars binaires, et dont la détection directe par les expériences LIGO/VIRGO devrait intervenir d'ici 2020, ouvrant ainsi une toute nouvelle fenêtre d'observation de l'Univers. Le succès de ces programmes nécessite l'étude détaillée de la dynamique des systèmes binaires et de leur rayonnement gravitationnel. La non-linéarité des équations d'Einstein interdisant en général une résolution exacte, les méthodes numériques et les approximations analytiques jouent un rôle très important. L'approximation historique post- newtonienne est maintenant accompagnée par des approches de théorie effective dite « one-body » et de théorie effective des champs. Plusieurs développements importants ont été réalisés, parmi lesquels on peut remarquer l'extension de l'ordre perturbatif (y compris les effets de « queue d'onde »), l'inclusion de multipôles élevés, l'inclusion des effets de spin (à la fois dans la dynamique et dans le rayonnement), l'utilisation de méthodes de resommation, l'analyse de l'auto-force gravitationnelle pour les systèmes spiralants de rapport de masse extrême.

Le développement formel de la théorie de la relativité générale est également un terrain de recherche fertile. On peut signaler les études sur la stabilité perturbative des trous noirs et sur leur caractérisation en dimension supérieure à quatre, l'analyse hamiltonienne de la dynamique, l'existence et l'unicité des solutions avec différentes conditions au bord. L'étude de ce type de problème stimule le développement de techniques mathématiques sophistiquées comme l'analyse complexe de formes self-duales et la théorie des twisteurs.

Les singularités de l'espace-temps et les propriétés thermodynamiques des trous noirs prédites par la théorie d'Einstein, ainsi que la cohérence générale du Modèle Standard, motivent toujours le défi de formuler une théorie quantique cohérente de la gravitation, qui résolve les divergences ultraviolettes de l'approche perturbative naïve. Plusieurs approches sont suivies, principalement dans le cadre de la théorie des supercordes, mais aussi de la gravité quantique à boucles, des mousses de spins, des triangulations dynamiques causales ou de la gravité « asymptotiquement saine ». Si ces approches concernent pour l'instant principalement la physique mathématique (cf. Chapitre II), elles suggèrent également de nouveaux scénarios pour la cosmologie, l'astrophysique ou la matière noire.

II. Physique mathématique et méthodes théoriques

Ce chapitre regroupe les études fondamentales des théories des champs et les développements de méthodes théoriques qui sont au cœur de l'activité de la section 02, tant par la profondeur des structures mathématiques mises en jeu que par leur applicabilité à une pléthore de phénomènes physiques intéressant l'ensemble des autres chapitres de ce rapport.

A. Théorie de cordes, super-gravité et théories de jauge

La « théorie de cordes » désigne un vaste spectre de thèmes et de techniques allant de la physique des hautes énergies et de la gravitation quantique à la modélisation de systèmes fortement couplés via la correspondance holographique. La théorie des super-cordes relie les particules élémentaires du Modèle Standard à des excitations d'un objet unidimensionnel relativiste, décrit à basse énergie par la super-gravité (cordes fermées) ou par des théories des jauge super-symétriques (cordes ouvertes). Les applications à la physique au-delà du Modèle Standard et à la cosmologie ayant été mentionnées dans le chapitre I, nous décrirons ici les aspects plus fondamentaux de ce domaine.

Une étape clé pour le développement d'une phénoménologie des théories de cordes est la classification des états du vide possibles et le calcul des théories effectives à basse énergie associées. Une difficulté majeure est l'existence générique de bosons scalaires de masse nulle, qui peuvent dans certains cas être éliminés via des flux électromagnétiques généralisés internes. La construction de vides non super-symétriques de type de Sitter, stables ou métastables, reste largement ouverte. Les vides à super-symétrie étendue, les dualités et les amplitudes de diffusion restent d'actualité, afin d'éclairer la structure de la théorie M qui étend la théorie des super-cordes.

L'origine microscopique de l'entropie des trous noirs et le paradoxe de l'information de Hawking sont des questions clés qui guident le développement d'une théorie de la gravité quantique. La théorie des cordes donne une explication robuste au premier problème pour le cas super-symétrique, microscopiquement décrit par des états liés de D-branes, et mettant en jeu des résultats avancés en géométrie algébrique et en théorie analytique des nombres. Le cas non super-symétrique reste largement ouvert. La correspondance holographique offre une solution de principe au second problème via la description duale manifestement unitaire, mais l'émergence d'une géométrie effective locale et le décodage de la radiation de Hawking sont mal compris et l'existence même d'une géométrie classique au voisinage de l'horizon d'un trou noir est débattue en raison de propriétés générales de l'entropie d'intrication.

Les applications de la correspondance holographique vont bien au-delà. Les développements récents dans ce domaine reposent sur une approche ascendante, où une théorie gravitationnelle en dimension d+1 ad hoc est choisie pour refléter les propriétés du modèle critique en dimension d. Pour QCD, cette modélisation permet de calculer les propriétés thermodynamiques, les coefficients de transport et les propriétés hors équilibre, en complément des approches sur réseau (cf. Chapitre I.1). Ces méthodes sont aussi utiles pour révéler de nouvelles classes d'universalité de points critiques pour les systèmes de matière condensée fortement couplés (cf. Chapitre III). Cette correspondance suggère aussi des propriétés remarquables de certaines théories de jauge conformes dans la limite planaire, i.e. à nombre de couleurs infini : les amplitudes de diffusion sont alors invariantes sous une symétrie de Yangian, combinaison de la symétrie conforme ordinaire avec la symétrie duale conforme venant de la dualité entre amplitudes de diffusion et boucles de Wilson de genre lumière. Les techniques de l'intégrabilité permettent ici le calcul exact des dimensions des opérateurs primaires à tout couplage. En parallèle, des progrès importants ont eu lieu sur les techniques d'unitarité généralisée et sur la structure analytique et transcendantale des amplitudes de diffusion.

Finalement, l'étude non-perturbative des théories des champs super-symétriques continue de bénéficier des progrès en théorie des cordes et des techniques dans le calcul de l'intégrale fonctionnelle par localisation. Ces résultats indiquent des relations profondes entre théories de jauge super-symétriques, théories conformes et modèles intégrables.

B. Gravité quantique

Par « gravité quantique » on fait référence aux approches où l'invariance sous les difféomorphismes, et donc l'absence d'un champ de fond prédéfini, est centrale. Plusieurs approches sont explorées, principalement dans le cadre de la gravité quantique à boucles et des mousses de spins, mais également des modèles de tenseurs aléatoires, des triangulations dynamiques causales ou de la gravité asymptotiquement saine, avec des progrès importants ces dernières années. En gravité quantique à boucles, l'interprétation des états a été approfondie par la notion de géométries twistées et de polyèdres flous, donnant une connexion avec la théorie des twisteurs. La dynamique est étudiée par le modèle de mousse de spins EPRL, dont le régime WKB reproduit une discrétisation de la relativité générale. Une première classe de corrections radiatives a été évaluée et des divergences (infra-rouges dans le cadre géométrique) sont analysées à l'aide de modèles de tenseurs aléatoires ou des groupes quantiques. Cependant, certains aspects dynamiques, comme la resommation des différents diagrammes, restent ouverts.

L'exploration d'une phénoménologie cosmologique, le big bang étant remplacé par un « rebond » quantique, est un sujet actif. Plusieurs applications à la physique des trous noirs sont également développées : ainsi l'entropie de Bekenstein-Hawking est donnée par le comptage des états quantiques ayant une même géométrie macroscopique. Une approximation de « géométrie près de l'horizon » a été donnée, incluant des propriétés dynamiques et une définition de quantités thermodynamiques quasi locales, éliminant la dépendance cinématique de l'entropie dans le paramètre d'Immirzi, et donnant la positivité de la chaleur spécifique d'un trou noir de Schwarzschild pour des observateurs quasi-locaux. Des modèles de « trou noir régulier » sont aussi explorés, ce qui permet de traiter la rétro-réaction due au rayonnement de Hawking, et d'examiner différents scénarios de solution du paradoxe de perte d'information et les conséquences possibles pour la phénoménologie. La radiation de Hawking est aussi étudiée avec des modèles analogues de gravité, tels que les trous noirs sonores ou les condensats de Bose-Einstein.

La gravité quantique vue comme somme sur les géométries peut être approchée par les modèles de tenseurs aléatoires, qui veulent étendre en dimensions supérieures la notion de matrices aléatoire, avec le succès récent d'un développement en 1/N. Sa classe d'universalité et les limites d'échelle ont été étudiées, et les propriétés de renormalisation et du point fixe sont en cours d'analyse. Il existe aussi une approche numérique, dite triangulation dynamique causale, pour laquelle l'existence d'un point critique avec transition de phase du deuxième ordre a été mise en évidence, mais les détails de la dynamique et l'invariance de Lorentz locale sont à clarifier. Plusieurs résultats importants ont été obtenus dans le cadre de l'hypothèse de sûreté asymptotique de Weinberg, appliquée à la gravité quantique via le groupe de renormalisation fonctionnel : le flux de l'opérateur de Weyl au carré possède un point fixe non-gaussien, et le point fixe ainsi que la dimension de la surface critique sont stables même avec l'inclusion d'un nombre infini d'opérateurs scalaires.

C. Théories quantiques des champs et théories conformes

Malgré leurs trente ans d'existence, les théories conformes des champs (CFT) sont un sujet très actif et fécond qui a récemment permis la découverte de nouvelles structures fondamentales et de nouvelles applications en information quantique, en matière condensée et en physique statistique. Les interfaces avec la physique des hautes énergies ainsi qu'avec les mathématiques (probabilités, théorie des représentations), sont également vivaces.

Certains modèles sigma décrivant les effets Hall quantiques, les isolants topologiques et la correspondance AdS/CFT ont un espace cible non compact. Une approche fructueuse passe par leur discrétisation, via des chaînes de spins aux degrés de liberté locaux de dimension finie, permettant de mieux cerner l'émergence et les propriétés de la non-compacité dans la limite continue. Le cas non unitaire décrivant les modèles désordonnés et certaines géométries critiques (percolation, polymères) ont un opérateur de dilatation non diagonalisable. L'action de l'algèbre de Virasoro est alors non semi-simple et les fonctions de corrélation contiennent des facteurs logarithmiques. La mise sur réseau est ici encore utile, l'indécomposabilité de la limite continue étant souvent préfigurée par celle des algèbres cellulaires (Temperley-Lieb) du modèle discret. La classification des CFT logarithmiques avec bord est en bonne voie tandis que le cas périodique, algébriquement très complexe, reste ouvert.

Les courbes critiques invariantes conformes apparaissent dans les parois de domaine, les polymères, la turbulence et le chaos quantique. Leur description a amené de riches interactions avec la méthode probabiliste SLE, rendant rigoureux nombre de résultats CFT ainsi qu'une interprétation géométrique du tenseur énergie impulsion et de certaines fonctions de corrélations. Le comportement près du point critique a également été compris.

Le lien entre les CFT en dimension 2 et les théories de jauge super-symétriques en dimension 4 conduit à des bases des représentations de l'algèbre de symétrie conforme d'origine géométrique, leurs vecteurs étant énumérés par les points fixes d'un tore qui agit sur l'espace des modules des instantons. Cela a permis de démontrer la fameuse conjecture AGT et d'en proposer des généralisations.

Les déformations isomonodromiques des équations différentielles ordinaires linéaires font aussi appel aux CFT en lien avec les blocs conformes de la théorie de Liouville c=1. La correspondance AGT mène alors aux solutions de Painlevé VI, V et III via des séries combinatoires.

Pour les CFT rationnelles les opérateurs primaires sont en bijection avec les conditions aux bords invariantes conformes. Le cas irrationnel mène à des familles continues de conditions aux bords. Ce sujet est lié aux conditions aux bords non diagonales intégrables et pointe vers des extensions de SLE. L'étude des anomalies aux coins et près des singularités coniques donne des applications pour les trempes quantiques et l'entropie d'intrication.

Les contraintes d'associativité issues de l'invariance conforme permettent aussi en d > 2 la caractérisation du comportement des corrélateurs. Cette approche fonctionnelle, alternative au groupe de renormalisation, permet d'envisager une étude analytique en dimension supérieure. Par ailleurs, la combinaison des théories conformes avec l'intégrabilité et l'intrication quantique a mené à des applications hors équilibre et aux modèles d'impuretés quantiques.

D. Systèmes intégrables

Les systèmes intégrables sont omniprésents en physique théorique, apparaissant aussi bien dans le domaine des hautes énergies (théories de jauge, théories des cordes, correspondance AdS/CFT) qu'en matière condensée (systèmes magnétiques, gaz quantiques, atomes froids), y compris hors équilibre, dans des situations où la conjonction d'interactions fortes et la présence de statistiques quantiques nécessitent des méthodes exactes et non-perturbatives. Les progrès obtenus ces dernières années concernent le développement de méthodes nouvelles ainsi que leurs applications.

Le calcul exact des facteurs de forme et des fonctions de corrélation des opérateurs locaux de ces modèles occupe une place centrale. Ils donnent accès à des quantités dynamiques observables expérimentalement (facteurs de structure dynamiques par exemple) et aussi à la détermination des perturbations autour de ces systèmes intégrables, permettant ainsi de modéliser des systèmes physiques non intégrables d'intérêt. Le calcul exact du comportement asymptotique de ces corrélations dans le cadre de l'ansatz de Bethe algébrique a permis de confirmer et d'aller au-delà (amplitudes) des prédictions issues des CFT et du liquide de Luttinger, y compris pour les systèmes à température finie.

Pour résoudre des modèles sortant du cadre de l'ansatz de Bethe algébrique il s'avère nécessaire de développer de nouvelles méthodes ; ainsi les approches dites « hypergéométriques » par analogie avec l'approche en théorie conforme demeurent un enjeu de premier plan. Ces dernières années, plusieurs progrès importants ont été réalisés dans ces directions. Pour les modèles intégrables avec conditions aux bords non-périodiques, plusieurs approches alternatives se développent aussi, comme les algèbres d'Onsager et la méthode de séparation des variables quantique. D'autre part, on observe un intérêt croissant pour les approches articulées sur la théorie des représentations de diverses algèbres et la bispectralité. L'étude de solutions algébriques aux équations q-KZ en lien avec la théorie des fonctions spéciales se poursuit. Par ailleurs, les représentations fermioniques de la chaîne de spin de Heisenberg ont offert une confirmation de la fonction à un point dans le modèle sine-Gordon. Enfin, la séparation des variables – également étudiée dans le cas de l'intégrabilité classique – a aussi des applications aux systèmes dynamiques et à l'optique quantique.

Rappelons aussi le lien fructueux entre systèmes intégrables et théorie des représentations à l'interface entre physique et mathématique. Il faut citer ici les bi-algèbres, les algèbres de Hopf, les coidéaux, les algèbres d'amas, les applications de Yang-Baxter, les algèbres cellulaires. D'autre part des aspects combinatoires en rapport avec les conjectures de Razumov-Stroganov et leur résolution ont tissé des liens vers la géométrie algébrique. Finalement, l'étude de plusieurs structures algébriques concernant les modèles intégrables discrets ou les modèles d'automates cellulaires se développe en lien avec les groupes quantiques.

E. Géométrie et processus aléatoires

Les phénomènes aléatoires occupent une place importante dans la physique moderne, leur étude conduisant à des interactions fructueuses avec les mathématiques.

La théorie des matrices aléatoires, issue de la physique nucléaire, a été appliquée dans des domaines très divers allant de la physique statistique à la gravité quantique. Les distributions de Tracy-Widom (TW), décrivant les fluctuations de la plus grande valeur propre de certaines matrices aléatoires, apparaissent ainsi dans les marches browniennes non-intersectantes ou dans les modèles de croissance en 1D dans la classe d'universalité Kardar-Parisi-Zhang (KPZ). Cette universalité se manifeste aussi pour les fluctuations de la conductance en physique mésoscopique et dans l'intrication de systèmes bipartites. Le développement en 1/N, dit aussi topologique, est une propriété importante de l'énergie libre des modèles de matrices ; la méthode récemment développée de récurrence topologique en détermine les termes, et tisse des liens avec les mathématiques (géométrie symplectique, symétrie miroir), mais aussi les CFT (calcul des fonctions de corrélation dans des théories à c=1) ou les systèmes intégrables classiques. Ce développement topologique décrit la géométrie et la combinatoire des triangulations aléatoires des surfaces de Riemann.

D'autres approches étudient la géométrie quantique des surfaces bidimensionnelles, soit dans le discret, soit directement dans le continu. Les bijections entre certaines familles d'arbres et des cartes planaires conduisent à des résultats comme la distribution de la distance géodésique entre deux ou plusieurs points ou un contrôle fin et rigoureux sur la limite continue non accessibles par des méthodes de matrices aléatoires. Dans le continu, des méthodes issues du calcul stochastique ont permis de définir de façon rigoureuse la géométrie de la gravité quantique dite de Liouville, donnant une preuve des relations Knizhnik-Polyakov-Zamolodchikov (KPZ) qui relient les exposants critiques euclidiens et ceux en gravité de Liouville.

Enfin, concernant le domaine de la géométrie non-commutative il faut citer le problème de la détermination de distances spectrales pour certains analogues non-commutatifs d'une variété spin non-compacte, ou encore les propriétés de renormalisation de théories de champs scalaires ou de jauges non-commutatives.

III. Matière Condensée et Systèmes Quantiques

La découverte des fermions lourds et des transitions de phase quantiques, des supraconducteurs à haute température critique, de l'effet Hall quantique, de la magnéto-résistance géante, du graphène et plus récemment des isolants topologiques, a entraîné un grand effort de la communauté de matière condensée pour décrire ces systèmes d'électrons corrélés. Les systèmes d'atomes froids, mésoscopiques, et autres fluides quantiques enrichissent aussi notre connaissance des phénomènes émergents. L'effet de la dimensionnalité réduite conduit au liquide de Luttinger et l'effet du désordre au phénomène de localisation. Un tournant méthodologique s'est avéré nécessaire pour comprendre ces phénomènes ainsi que les aspects non-liquides de Fermi émergeant aux points critiques quantiques. La description hors de l'équilibre et la caractérisation de l'intrication dans ces systèmes quantiques représentent aussi des enjeux théoriques.

A. Matériaux quantiques, supraconductivité, magnétisme frustré et liquides de spins

Les fortes corrélations entre électrons conduisant à la physique de Mott sont responsables par exemple de l'apparition de fermions lourds dans le réseau Kondo, et aussi de la phase dite « pseudo-gap » dans les supraconducteurs à haute température critique à base de cuivre. Un exemple d'outils théoriques pour décrire la transition métal-isolant de Mott et le modèle de Hubbard est la théorie dite du champ moyen dynamique (DMFT) dont l'idée consiste à remplacer le réseau cristallin par un « atome effectif sur un site » dans un bain auto-cohérent d'électrons. Ces approches peuvent être aussi combinées à des approches ab-initio. D'autres efforts théoriques concernent des approches de théorie des champs, de jauge, particules « esclaves » et champs moyen renormalisé, ainsi que l'AdS/CFT. Concernant ces supraconducteurs ainsi que les nouveaux supraconducteurs à base de Fer (pnictures), le groupe de renormalisation fonctionnel, non-perturbatif, apporte aussi un point de vue quantitatif. À une dimension d'espace, des méthodes de type ansatz de Bethe et bosonisation existent et peuvent être complétées par des approches numériques. Des efforts récents concernent aussi la physique des hétéreostructures. La physique de Mott conduit aussi à des phases de spin nouvelles, comme dans la chaîne quantique de spin-1 ou dans les « échelles » de spin. Cela donne lieu à la notion d'état RVB (liens de valence résonants) suggéré par Ph. Anderson. Les modèles de spin frustrés de type Kitaev et J1-J2 à deux dimensions d'espace, et à trois dimensions dans le réseau pyrochlore par exemple, font aussi l'objet de nombreuses études, par exemple, dans les systèmes iridates. Une autre catégorie de liquides de spins apparaît sur le réseau kagomé, où le fondamental classique présente une entropie extensive. La présence d'interactions dipolaires conduit aussi à des configurations « spin-ice » et à des monopoles de Dirac.

B. Isolants et supraconducteurs topologiques, effet Hall quantique, graphène

La quantification de la conductance de Hall est expliquée grâce à un invariant topologique, le nombre de Chern. Récemment, une nouvelle classe de matériaux appelée « isolants topologiques » a été prédite et immédiatement observée à deux dimensions dans des composés à base de Mercure et à trois dimensions dans des composés de Bismuth. Dans cette nouvelle famille d'états quantiques, la symétrie de renversement par rapport au temps n'est pas brisée et le couplage spin-orbite joue un rôle primordial. À deux dimensions, cela donne lieu à l'effet Hall quantique de spin et au modèle dit de Kane-Mele sur réseau hexagonal, qui est une généralisation avec spin du modèle de Haldane. De tels systèmes sont des isolants de bande. Ils montrent aussi des états de bords hélicaux sans gap qui ont des applications potentielles pour la spintronique. Une forte activité concerne l'étude théorique de ces isolants, en utilisant par exemple des théories de champs topologiques, ainsi que leur classification. Les fermions de Majorana ont été prédits, en particulier, dans des supraconducteurs de type p et dans l'effet Hall fractionnaire à ν = 5/2. Un autre défi concerne la prédiction d'isolants de Chern fractionnaires ou corrélés. Ces questions sont aussi d'actualité dans les systèmes d'atomes froids et de photons menant à des théories de Floquet hors-équilibre. Des phases protégées topologiquement par symétrie sont aussi observées et étudiées pour des systèmes de bosons ou spins.

La réalisation d'une mono-couche de carbone, le graphène, a aussi suscité une attention considérable permettant la réalisation de l'équation de Dirac. L'effet des interactions coulombiennes est considéré théoriquement conduisant à une électrodynamique quantique très riche. Le graphène artificiel a aussi été réalisé expérimentalement dans des systèmes d'atomes froids, des semi-conducteurs, et dans des systèmes de photons. L'observation d'un effet Hall entier et fractionnaire dans le graphène a aussi un intérêt théorique en relation avec des degrés de liberté de vallée.

C. Gaz atomiques ultrafroids, fluides et optique quantiques

Depuis les premières réalisations de réseaux optiques pour les gaz atomiques ultrafroids, de nombreux chercheurs de matière condensée se consacrent à la théorie des gaz quantiques.

La possibilité de choisir la statistique quantique des atomes, de simuler des réseaux cristallins, de changer la dimensionnalité du système et de contrôler la force, et parfois la portée des interactions, a stimulé dans les années passées, et va sans doute encore stimuler dans les années à venir, plusieurs directions de recherche. On s'intéresse à la recherche de phases exotiques, de transitions de phase non conventionnelles en basse dimension et à la compréhension des mécanismes à l'origine de la supraconductivité à haute température dans certains matériaux. Des efforts actuels importants concernent, par exemple, la transition Mott-superfluide, la localisation d'Anderson par le désordre, la transition BCS-BEC, le gaz unidimensionnel, les états liés à trois corps, la limite unitaire, la réalisation de champs de jauge artificiels. Une autre thématique en développement est l'étude de la thermalisation des gaz quantiques. Les gaz atomiques ultrafroids jouent de plus en plus un rôle de simulateurs quantiques pour la physique du solide et la matière condensée. Ils jouent aussi un rôle clé en physique nucléaire, comme dans l'étude de l'universalité dans la physique d'Efimov, jusqu'aux effets du vide quantique comme, par exemple, les forces de Casimir et la radiation de Hawking.

La grande maîtrise de l'interaction lumière-matière a des applications dans le domaine de l'information quantique, menant au prix Nobel de S. Haroche en 2012, et conduit à de la nouvelle matière condensée hors-équilibre dans les modèles de Dicke, Jaynes-Cummings et Rabi, ainsi qu'à de nouvelles questions reliées à la mesure.

D. Physique mésoscopique

La physique mésoscopique concerne des systèmes ayant une taille réduite allant du nanomètre jusqu'au micromètre. Cela implique les systèmes unidimensionnels (fils quantiques, nanotubes de carbone ou bords des états de Hall et des isolants topologiques) ainsi que les systèmes hybrides comprenant des supraconducteurs et composants ferromagnétiques, ou électroniques et optiques. La notion de cohérence quantique joue un rôle crucial donnant lieu à l'observation de l'effet Aharanov-Bohm, à la notion de conductance de Landauer-Buettiker en e2/h et au phénomène de localisation faible et de localisation forte dite d'Anderson. Cela a aussi mené à la notion d'atome artificiel et de boîtes quantiques conduisant à de la physique Kondo hors-équilibre. On aborde aussi la problématique du chaos.

D'autres efforts actuels concernent le transport quantique mésoscopique à une dimension, la physique des états de bords et la spintronique, les systèmes Josephson, l'opt-électronique et opto-mécanique, les circuits d'électrodynamique quantique, les circuits RC quantiques et Levitons, les polaritons en micro-cavité semiconductrice, et la thermo-électricité. Les fils quantiques ayant un fort couplage spin-orbite permettent aussi, en principe, de réaliser des supraconducteurs topologiques avec des fermions de Majorana. Les systèmes Nano hors de l'équilibre, encouragent aussi de nouvelles approches théoriques dépendant du temps.

E. Systèmes désordonnés

L'étude des systèmes quantiques désordonnés représente un domaine très actif, à l'interface entre matière condensée et physique statistique. Les techniques du groupe de renormalisation perturbatif, fonctionnel et non perturbatif continuent à se développer et à produire des résultats pour l'étude des phases de verre quantique dans des systèmes de basse dimensionnalité à et hors de l'équilibre. À une dimension d'espace, les techniques de bosonisation ou de modèles intégrables permettent d'inclure les effets des interactions rigoureusement. La localisation multi-corps (many-body localization) (ou localisation dans l'espace de Fock) se profile comme un domaine de frontière pour comprendre les effets combinés du désordre et de l'interaction dans les systèmes quantiques.

F. Information et intrication quantique

Le sujet d'information quantique a ses racines dans la théorie d'information classique et les concepts fondamentaux de mécanique quantique comme les inégalités de Bell. Il est apparu dans la physique théorique il y a une dizaine d'années et y a trouvé un terrain très fertile, propulsé par la quête d'un ordinateur quantique et le désir de mieux comprendre les états de la matière corrélée. Concernant la possibilité de réaliser un ordinateur quantique, les systèmes de jonctions Josephson, de cavité et circuit d'électrodynamique quantique, d'optique quantique ont connu un essor important. Les outils de l'information quantique permettent de comprendre le degré d'intrication dans les fonctions d'ondes à N corps. Les diverses variantes de l'entropie d'intrication d'un sous système avec son environnement se calculent avec des techniques de CFT à la Calabrese-Cardy, de modèles intégrables, de méthodes exactes et numériques comme dans les systèmes de Hall quantiques fractionnaires. D'autres quantités telles que le spectre d'intrication, l'information mutuelle et la négativité ont été explorées. L'entropie d'intrication est aussi un concept très efficace pour mesurer les transitions de phase quantiques et les phases topologiques.

Ces nouveaux concepts ont amené un changement de paradigme dans notre compréhension de la fonction d'onde à travers la représentation dite d'état de produit matriciel (MPS) (voir section III-8).

G. Aspects hors-équilibre

La physique quantique hors-équilibre suscite un grand intérêt théorique en lien avec la matière condensée, la physique mésoscopique, l'interaction lumière-matière (expériences « pump-probe »), les systèmes d'atomes froids, la physique des plasmas.

Par exemple, beaucoup d'attention a été portée au cours de ces dernières années à l'étude de la dynamique hors d'équilibre des systèmes quantiques isolés ainsi qu'au mouvement Brownian hors-équilibre. Une question importante qui reste à présent ouverte concerne la thermalisation de ces systèmes quantiques isolés. Suivant les postulats de la mécanique statistique, on devrait s'attendre à ce qu'un système isolé de volume suffisamment grand puisse agir comme un bain thermique pour n'importe quel sous-système de volume plus petit. Chaque sous-système est ainsi décrit par une matrice de densité qui est obtenue en prenant la trace sur les degrés de libertés externes au sous-système en question. On devrait donc espérer que chacune de ces matrices densité prenne la forme d'une matrice de Gibbs-Boltzmann à une certaine température T. Ceci conduit à l'hypothèse de « eigenstate thermalization ». La vérification de cette hypothèse dans des systèmes modèles a été l'objet d'un grand effort avec des résultats parfois contradictoires. Ce problème est ambitieux puisque l'on ne s'attend pas à ce que cette propriété soit vraie pour des systèmes intégrables (qui sont pratiquement les seuls à pouvoir être résolus), et les simulations numériques (par exemple, méthode variationnelle dépendant du temps) impliquent des échelles de temps limitées.

H. Méthodes et algorithmes

Ces dernières années ont vu un énorme progrès dans le développement de méthodes mathématiques et d'algorithmes pour la simulation des systèmes quantiques.

En ce qui concerne la physique à l'équilibre, les méthodes Monte Carlo quantique et les algorithmes de type « Worm » ont été très efficaces pour simuler des systèmes bosoniques désordonnés. En même temps, des nouvelles méthodes diagrammatiques dites « Diagrammatic Monte Carlo » ont été introduites. Les méthodes comme la diagonalisation exacte, la DMFT et le DMRG ont atteint un stade de grande maturité et continuent à être utilisées régulièrement pour obtenir énormément de résultats importants, comme par exemple les premiers résultats quantitatifs pour les modèles d'Hubbard (en combinaison aussi avec la DFT), la description des états fondamentaux des liquides de spins, des phases topologiques et l'application de la DFMT à des systèmes multi-orbitaux. Une nouvelle méthode dite « cavité quantique », qui est une extension de la DMFT, a été introduite. Les états de produits matriciels (MPS) conduisant aux méthodes PEPS, MERA ont connu un développement récent important en relation avec la classification de l'intrication quantique à N corps.

Concernant l'aspect hors d'équilibre, de nouvelles approches telles que Bethe Ansatz et bosonisation hors de l'équilibre, méthodes de Schwinger-Keldysh et Lippmann-Schwinger, groupe de renormalisation numérique dépendant du temps (tD-NRG), Monte-Carlo dépendant du temps (tD-MC), méthodes stochastiques ont été développées. Le « time-dependent variational Monte Carlo » a permis une étude détaillée de la dynamique hors d'équilibre de systèmes en interaction forte. La DMFT a aussi été adaptée pour décrire la physique hors d'équilibre des systèmes quantiques. Enfin, le DMRG a été généralisé à l'étude de la dynamique (« time-dependent DMRG ») et permet d'obtenir des fonctions de corrélation dépendantes du temps et à température finie.

I. Nouvelles interfaces

La correspondance AdS-CFT permet une interface nouvelle entre physique des hautes énergies (cordes), et systèmes de matière condensée (AdS-CMT). Des résultats récents incluent les supraconducteurs holographiques et l'entropie d'intrication holographique. La réalisation de champs artificiels synthétiques – dans les systèmes d'atomes froids et de photons – a aussi suscité un grand intérêt pour la simulation de champs de jauge artificiels dynamiques abéliens et non-abéliens. L'étude des équations non-linéaires ont des applications variées incluant la physique mathématique, les effets des interactions et du désordre, l'effet de courbures, la turbulence et chaos, effets non-linéaires en matière condensée, optique quantique, hydrodynamique et physique des plasmas. Le lien étroit avec la physique statistique engendre aussi des perspectives nouvelles, liées aux systèmes complexes, à la science du climat, à la bio-physique, à la physique hors-équilibre, et aux sciences de l'information.

IV. Physique Statistique et Non-Linéaire et Applications

A. Physique statistique à l'équilibre et systèmes désordonnés

La physique statistique d'équilibre a connu des progrès remarquables autour de ses thèmes traditionnels. Il existe maintenant un calcul très précis d'exposants du modèle d'Ising à 3d par la technique du boostrap conforme. Cette approche pourrait mener à de nouvelles pistes dans la compréhension des transitions de phase pour d>2. La technique du groupe de renormalisation fonctionnelle « exacte » est maintenant appliquée dans de nombreux domaines de la physique statistique et la matière condensée. En particulier, elle a permis des progrès dans la compréhension du modèle d'Ising en champ aléatoire. L'étude des propriétés statistiques des systèmes avec interactions à longue portée, comme les systèmes auto-gravitants, est actuellement en plein essor. Un domaine très actif est celui des matrices aléatoires, en particulier en lien avec la théorie des évènements extrêmes, la physique statistique hors d'équilibre, les applications en finance et l'analyse des données. Au niveau numérique un nouvel algorithme de thermalisation a permis de comprendre le processus de fusion des sphères dures en deux dimensions. Les limites du recuit quantique comme algorithme d'optimisation ont également été mises en évidence. Au niveau expérimental, le principe de Landauer qui lie le stockage de l'information à la dissipation d'énergie a pu être vérifié pour la première fois.

La théorie des systèmes désordonnés est en constant progrès. Les idées utilisées dans les systèmes inhomogènes frustrés (verre de spin, verres) se sont révélées fructueuses en physique théorique ainsi que dans des contextes inter-disciplinaires où les interactions ont une nature hétérogène (voir sec. IV.I-J). La théorie dite de « Random First Order Transition », pour la description de la transition de verre dans les liquides et le « jamming » dans les systèmes granulaires a été confirmée. Parmi les résultats majeurs, citons la compréhension des hétérogénéités dynamiques, l'utilisation de contraintes pour tester la phase de verre, un début de groupe de renormalisation, la solution exacte du problème des verres en haute dimension, la mise en évidence d'une transition secondaire dans la phase vitreuse (transition de Gardner) qui explique la marginalité dans les états « jamming ». Un autre sujet porteur, à cheval avec la matière condensée, est la localisation à multi-corps (voir section III).

B. Physique statistique hors d'équilibre

Une avancée majeure concerne la solution exacte de l'équation de Kardar-Parisi-Zhang (KPZ) en dimension 1+1, un des piliers de la physique statistique hors d'équilibre. On y a trouvé des connexions inattendues avec les fluctuations de la plus grande valeur propre de matrices aléatoires (décrites par les distributions de Tracy-Widom). Grâce aux progrès récents dans la théorie des extrêmes de systèmes fortement corrélés, de nombreux résultats analytiques exacts ont été obtenus, par exemple, pour les marches aléatoires, les matrices aléatoires ou les particules Browniennes en interaction.

Les progrès expérimentaux sur la manipulation d'objets microscopiques, tels que des brins d'ADN, des colloïdes, etc., ont motivé le développement de la « thermodynamique stochastique », qui décrit les systèmes de petite taille, les fluctuations autour des valeurs moyennes ou les événements rares. Dans ce cadre, la définition de la production d'entropie le long d'une trajectoire du système a été introduite et a permis d'obtenir une description unifiée des différentes relations de fluctuation. D'autre part, la statistique des fluctuations du courant dans le modèle d'exclusion simple asymétrique avec conditions aux bords périodiques a été calculée par la méthode de l'ansatz de Bethe. Enfin, l'existence de la limite hydrodynamique dans les modèles d'exclusion a permis l'étude des fluctuations de courant et de densité.

L'étude de la matière active est en plein essor, avec applications aux systèmes de particule auto-propulsée, décrivant des êtres vivants (piétons, poissons, oiseaux, bactéries...), des particules inertes (disques polaires en vibration...) ou des systèmes moléculaires (moteurs moléculaires impliqués dans le transport intracellulaire). Leur point commun est de disposer d'une source interne d'énergie leur permettant de se déplacer. La recherche actuelle porte sur les transitions de jamming, l'émergence de patterns (vol des oiseaux) et leurs mécanismes ou l'efficacité du transport dans ces systèmes.

C. Physique non-linéaire et systèmes dynamiques

L'analyse des propriétés statistiques des systèmes dynamiques met actuellement en jeu la théorie des extrêmes, les grandes déviations ou les théorèmes limites qui peuvent fournir un cadre formel aux problèmes de transport. L'utilisation des systèmes dynamiques permet des progrès spectaculaires dans la compréhension des systèmes hors-équilibre en régime stationnaire. On leur doit la formulation de nouveaux théorèmes de fluctuation-dissipation (Cohen, Gallavotti, Ruelle) et un nouveau cadre pour étudier les différentes limites hydrodynamiques et thermodynamiques. Il reste à établir un lien entre les systèmes dynamiques à petit nombre de degrés de liberté et la transition vers la turbulence, celle-ci étant vue comme un processus stochastique d'origine déterministe.

D. Physique des fluides et turbulence

Comprendre et décrire la turbulence est l'un des problèmes ouverts de la physique classique. Outre la turbulence « classique », l'activité dans ce domaine s'est récemment diversifiée autour de la turbulence « quantique » et la turbulence d'ondes.

L'activité en turbulence classique a été stimulée par les progrès expérimentaux en visualisation et traitement de données. La possibilité de suivre des particules a renouvelé l'intérêt dans l'approche lagrangienne en complément à l'approche eulerienne. On a observé des transitions entre grandes structures en convection, turbulence hydrodynamique ou magnéto-hydrodynamique, selon des dynamiques lentes et complexes. Quelques modèles de basse dimensionnalité ou de mécanique statistique ont été développés. L'enjeu est d'y inclure des outils de type processus stochastiques, grandes déviations ou systèmes dynamiques.

L'approche statistique des équations d'Euler 2D permet l'explication des structures cohérentes en astro et géophysique. L'enjeu est l'extension au cas 3D. Une voie pourrait être le passage par le cas intermédiaire de 3D avec symétries, pour lequel les solutions à l'équilibre de l'équation d'Euler pourraient coïncider avec les solutions stationnaires d'un écoulement turbulent classique.

La turbulence d'ondes se rencontre à des échelles variées en physique, astrophysique, géophysique ou mathématique. Un effort expérimental important a été fourni, en utilisant des techniques spatio-temporelles. Les avancées récentes incluent l'observation d'une cascade inverse d'ondes de gravité et d'ondes en optique non linéaire, l'intermittence en turbulence d'ondes, et la turbulence d'ondes en déclin. Ces résultats motivent la modélisation théorique des effets de taille finie, la prise en compte de processus fortement non linéaires et de structures cohérentes, ainsi que l'étude de la condensation d'ondes classiques.

En dessous de 2,17 K, l'hélium liquide devient superfluide : il s'écoule sans viscosité et sa vorticité devient quantifiée. L'enjeu est de savoir si cette « turbulence quantique » diffère de la turbulence « classique » motivant le projet expérimental SHREK d'étude et de comparaison de la turbulence dans l'hélium liquide au dessus et en dessous de la transition superfluide. Les mesures obtenues pourraient permettre la validation des modèles actuels, utilisant les ondes de Kelvin, l'équation de Gross-Pitaevskii ou le modèle à deux fluides. Une manière d'unifier ces modèles a récemment été proposée, via la prise en compte des fluctuations thermiques classiques.

E. Physique des plasmas

Les plasmas, naturels ou de laboratoire, allant des simples décharges électriques aux plasmas de fusion, sont des systèmes non linéaires complexes pouvant être le siège de phénomènes d'auto-organisation associées au développement d'instabilités variées.

Dans les plasmas chauds confinés par des champs magnétiques, la dynamique implique le couplage d'échelles très différentes, et des physiques différentes selon la région du plasma. Des progrès mathématiques ont été obtenus sur la relaxation non collisionnelle (amortissement Landau). On observe actuellement un passage en régime quasi-industriel des codes gyrocinétiques. Les plasmas sont également le siège de mouvements globaux engendrés par la turbulence. Ces écoulements localisés dans une étroite couche de cisaillement sur le bord du plasma peuvent constituer des barrières de transport efficaces et conduire à des régimes dits de confinement améliorés, dont la compréhension et le contrôle sont primordiaux pour la fusion par confinement magnétique.

Parmi les enjeux actuels, mentionnons la possibilité de faire de la météo solaire (prévision des éruptions solaires) en utilisant les analyses des données du vent solaire ou la mise au point des dynamos de laboratoire « plasmas » permettant d'explorer des gammes de paramètres de contrôle plus proches de ceux des objets naturels, dans la suite de l'expérience VKS.

F. Physique et biologie

La génétique des populations a attiré plusieurs théoriciens du fait de la simplicité des lois d'évolution gouvernant la complexité et la richesse des organismes vivants. Les événements rares jouent un rôle crucial dans la création de la variation génétique au niveau de la population, motivant l'application d'un ensemble de méthodes issues de la physique statistique. Les récentes percées expérimentales dans le séquençage ont permis de réévaluer l'importance de la sélection et des mutations à plus grande échelle, par exemple les duplications du génome ou de plusieurs gènes, et motivent la recherche de modèles théoriques de ces phénomènes.

Le paradigme de la régulation de l'expression comme un événement local en espace et en temps se révèle de plus en plus inadéquat à décrire la complexité de la réponse cellulaire. Des avancées sur la compréhension des mécanismes non-locaux tels que la rémodelisation de la chromatine sont espérées par l'application de méthodes issues de la physique statistique, notamment sur le couplage entre régulation et disponibilité de ressources cellulaires, en termes de nombre de protéines, d'ARN et d'énergie en général.

Les outils des problèmes inverses ont été appliqués avec succès à l'identification du lien entre structure moléculaire et fonction ainsi qu'à l'étude de l'activité de populations neuronales et dans la dynamique des vols d'oiseaux.

Des progrès ont été faits dans la compréhension des mécanismes physiques de la transduction de signaux qui sont à la base des systèmes sensoriels de la cellule et des processus de décision au niveau moléculaire. Dans ces systèmes très fluctuants, l'application de la physique statistique semble prometteuse.

Les neurones sont un exemple paradigmatique des capacités de calcul et de décision des cellules uniques ou en coopération. En couplant données électro-physiologique et modèles théoriques, on décrit maintenant avec précision les différentes relations entrée/sortie des divers neurons et comment elles sont liées aux mécanismes biophysiques. Des avancées sont advenues dans les réseaux de neurones, par la compréhension des mécanismes de plasticité synaptique et de la dynamique collective dans les ganglia et dans le cortex.

G. Matière molle, morphogénèse et organisation de la matière

Les matériaux désordonnés, la matière molle et les systèmes biologiques présentent des diagrammes de phases, des dynamiques et des propriétés mécaniques et de transport complexes. L'enjeu est la compréhension de l'organisation, dans l'espace et le temps, de la matière vivante et inerte, en particulier à l'échelle de l'observable. Les outils combinent des techniques allant de simples observations des phénomènes à des expérimentations et théories quantitatives plus poussées. Le défi scientifique consiste à faire émerger un principe physique sous-jacent robuste d'un phénomène dont la pertinence va au-delà d'une manifestation particulière. Les exemples vont des propriétés d'organisation d'objets inertes (milieux granulaires, tiges, plaques), à la description de mécanismes gouvernant des structures biologiques (biologie du développement, organisation des tissus biologiques).

Pour les matériaux désordonnés, les développements récents portent sur la rhéologie des écoulements granulaires génériques et du transport sédimentaire. Des progrès importants ont été réalisés sur la rhéologie des fluides complexes, notamment grâce aux analogies avec les questions fondamentales de transition vitreuse, de blocage et de brisure d'ergodicité. Les questions d'élasticité non-linéaire, de plasticité et de fracture des milieux hétérogènes donnant lieu à des formes complexes (papier froissé, déchirures) font aussi l'objet de nombreux travaux expérimentaux et théoriques. Les travaux sur la morphogenèse et les descriptions de type rhéologie des verres mous appliqués à la biologie, et à l'oncogenèse en particulier, sont un exemple d'application des systèmes désordonnés à la biophysique des tissus. D'importants progrès sont attendus de l'application des méthodes de physique théorique à la biophysique structurelle, tels que la cristallisation des protéines et les réseaux d'interaction protéiniques.

Le développement de systèmes colloïdaux et de nanoparticules de plus en plus complexes (patchy colloids) va permettre de nouvelles plate-formes d'études des processus d'auto-assemblage et des transformations de phases. Les dispersions colloïdales, que l'on peut voir comme des systèmes fortement couplés, présentent des comportements encore mal compris. Tous ces systèmes présentent un défi pour les méthodes théoriques utilisant des techniques de couplage fort au-delà des théories de champ moyen. Elles vont de la résolution d'équations de type Poisson-Boltzmann à la détermination des forces de Casimir pour des systèmes à l'équilibre et hors-équilibre (force de traînée).

H. Inférence statistique et algorithmes

Les applications de la physique statistique aux sciences de l'information, l'inférence et le traitement des données, notamment en biologie et sciences sociales, se sont multipliées. Le développement d'algorithmes va de pair avec la compréhension théorique et/ou mathématique de modèles parfois schématiques, parfois directement liés aux applications. L'activité principale s'est concentrée autour des problèmes inverses pour extraire l'information pertinente de grandes quantités de données. Le prototype est ici le modèle d'Ising inverse où l'on cherche à reconstruire selon un principe d'entropie maximale, les interactions entre spins. La théorie statistique des systèmes hétérogènes, en particulier les techniques de champ moyen, l'approximation de Bethe et les développements en amas ont été utilisés pour définir de nouveaux algorithmes. Ces algorithmes ont aussi été utilisés pour analyser des données dans des contextes aussi variés que la protéomique, la virologie, les neurosciences, l'étude du système immunitaire, l'étude de comportements collectifs des oiseaux. Des algorithmes de passage de messages ont été appliqués au problèmes de clustering des données, à la détection de communautés sur réseau, l'inférence des épidémies et surtout l'acquisition comprimée des données (compressed sensing), ou des techniques de passage de messages associées à un choix judicieux de la matrice de mesure permet la reconstruction optimale d'images comprimées.

I. Réseaux et sciences humaines

La physique statistique a permis dernièrement des avancées dans le domaine interdisciplinaire des sciences humaines statistiques, la « révolution numérique » s'imposant comme un sujet scientifique, économique, social et politique important.

Une application est liée à l'étude des réseaux complexes, de l'informatique (Inter-net), à la biologie (réseaux d'interactions de protéines, de régulation génétique, épidémiques) en passant par les sciences sociales (réseaux sociaux) et économiques (réseaux bancaires). De nouveaux outils statistiques (quantification des corrélations, algorithmes pour la détection de structures non triviales comme les « communautés ») expliquent l'émergence de certaines caractéristiques observées (e.g. le mécanisme d'attachement préférentiel, la propagation d'épidémies, le risque d'effondrement de réseaux bancaires).

Des applications à des problèmes de macro-économie ont été développées. Suite à la crise économique de 2008, des aspects de base des sciences économiques ont été remis en question. L'absence d'hétérogénéités dans les modèles standards empêche par exemple l'apparition de crises endogènes, ce qui motive les approches de « modèles d'agents ». En finance, les outils de la mécanique statistique ont permis l'optimisation de portefeuille, la gestion du risque financier, ou la prédiction des corrélations entre les prix des actions.

Conclusion

Au moment de conclure nous voudrions en premier lieu rendre hommage à tous les chercheurs et enseignant-chercheurs de notre communauté dont les résultats et projets ont nourri ce rapport ainsi qu'aux ITA pour le rôle crucial qu'ils jouent au sein de nos laboratoires. C'est aussi le moment de rappeler qu'au cœur des découvertes et des innovations il y a avant toutes autres considérations, en particulier de structures, des femmes et des hommes de talent qui par vocation ont dédié leur vie à la recherche, à l'amélioration du savoir, à sa transmission et à sa diffusion ; et qu'une réelle politique scientifique, pour être efficace, c'est à dire favoriser les découvertes et les ruptures conceptuelles, doit avant toute autre chose considérer le facteur humain. Il y aura toujours plus d'impact et de profonde structuration de la recherche découlant d'idées novatrices que venant d'un pilotage structurel.

Une comparaison entre le présent rapport et la situation de la section 02 il y a dix voire vingt ans montre un élargissement et/ou une intensification de son spectre remarquable dans plusieurs directions comme la matière condensée, la physique statistique et non-linéaire, la biophysique, etc. Dans une situation où le nombre de postes ouverts aux concours chargés de recherche est en diminution, il devient d'autant plus difficile de maintenir la dynamique de renouvellement des générations sur une aussi grande variété de sujets. En particulier les domaines dans le cœur historique de la section comme en particulier la physique des interactions fondamentales ou la physique mathématique et méthodes théoriques sont dans une phase de départs importants en retraite qu'il conviendra de suivre attentivement sous peine de perdre des expertises de premier plan au niveau international. La pression sur le concours est devenue dans le même temps extrême (probablement parmi les plus fortes au CNRS) avec par exemple 183 candidats CR2 (pour 4 postes) et 75 candidats CR1 (pour 1 poste) en 2014 (la situation étant similaire les années précédentes). Cela est dû tout à la fois à la largeur thématique déjà évoquée mais aussi à l'attractivité de la communauté française reliée à la section 02 qui conduit à un recrutement au meilleur niveau international (la proportion de chercheurs ayant effectué une thèse hors de France dans les recrutements Chargés de Recherche est de l'ordre de 50 % : 3 sur 6 en 2013 et 3 sur 5 en 2014). Bien entendu des théoriciens sont aussi parfois recrutés au CNRS via d'autres sections du Comité National et sur des thématiques proches aux interfaces. Il conviendrait néanmoins qu'une réflexion s'engage au sein de l'INP, et au-delà avec les autres Instituts du CNRS concernés, sur une augmentation sensible des postes affichés en section 02 pour que puissent continuer les recrutements à la fois dans le cœur thématique de la section et aux interfaces ; notons que jusqu'en 2013 l'IN2P3 affichait régulièrement un poste CR1 en section 02 sur la théorie reliée à la physique des hautes énergies et que quelques postes d'échanges avec l'INSMI ont été affichés en section 02 au cours des dix dernières années ; nous tenons à souligner l'importance de ces soutiens pour l'ensemble de la communauté de physique théorique et de ses interfaces.

Enfin, à l'heure où ce rapport est finalisé, les résultats du programme 2014 de l'ANR viennent d'être publiés. Alors que depuis sa création, et notamment via les programmes « blancs » et « jeunes chercheurs », l'ANR avait soutenu à un niveau juste raisonnable la recherche fondamentale, la structuration de son programme 2014 en défis sociétaux amène à l'écrasement sans précédent de son financement. Cette « chronique d'une mort annoncée » est d'ailleurs en parfait accord avec la stratégie et le pilotage prônée par un récent rapport de l'OCDE ; rapport qui semble, au fond, vouloir tout ignorer de ce qu'est la recherche fondamentale et son rôle. A contrario, le rapport 2012 de l'Académie des Sciences et ses recommandations cohérentes et constructives a pour sa part tout simplement été ignoré. Il convient ici, et sans aucune sorte d'humour, de rappeler, parmi une multitude d'exemples, que l'invention de l'ampoule électrique ne doit rien aux programmes d'amélioration de la bougie ni celui de la télégraphie sans fil à ceux des pigeons voyageurs, que le GPS n'aurait pas la précision requise sans les corrections nécessaires venant de la relativité générale d'Einstein dont la préoccupation était tout autre, et qu'enfin, l'invention du laser n'est pas non plus le résultat d'une forte demande sociétale d'amélioration du tourne disque. Si dans une situation conjoncturelle difficile il est bien entendu de notre responsabilité de contribuer à l'effort d'amélioration et de compétitivité de notre économie, il convient de souligner que recherche fondamentale, appliquée ou industrielle y participent toutes à leurs niveaux respectifs et y ont toutes leur utilité, et qu'il serait sans nul doute beaucoup plus productif et efficace de créer ou de renforcer les services favorisant les transferts d'idées et de concepts entre elles (c'est un métier à part entière, et de tels services, très développés, existent dans les grandes universités étrangères) plutôt que de vouloir, dans une stratégie à courte vue, réduire certaines ou inféoder les unes aux autres.