Rapport de conjoncture 2019

Section 02 Théories Physiques : Méthodes, Modèles et Applications

Composition de la Section

Peter Holdsworth (président de Section) ; Diego Guadagnoli (secrétaire scientifique) ; Aurélien Barrau ; Francesca Chillà ; Benjamin Fuks ; Vivien Lecomte ; Karim Noui ; Patrick Peter ; Aleksandra Petkovic ; Michela Petrini ; Artyom Petrosyan ; Éric Ragoucy Aubezon ; Sébastien Renaux-Petel ; Vincent Rivasseau ; Didina Serban ; Véronique Terras ; Sophie Toussaint-Leroy ; Aleksandra Walczak ; Samuel Wallon.

1. Présentation de la Section

A. Introduction

La section 02 est concernée par tous les domaines scientifiques visant à la modélisation microscopique ou fondamentale des lois de la physique, de l’échelle cosmologique à celle des particules élémentaires en passant par les échelles de la biophysique et de la physique de l’environnement.

Si les activités de recherche de la section 02 sont ancrées dans des disciplines telles que la physique des hautes énergies, la physique mathématique, la matière condensée, la physique statistique et la physique non-linéaire, elles s’étendent bien au-delà. Par vocation même, la section 02 a des interfaces fructueuses et dynamiques non seulement avec toutes les autres sections de l’INP (03, 04, 05), mais aussi avec celles de l’IN2P3 (01), de l’INSU (17), de l’INSMI (41), de l’INS2I (06), de l’INSIS (10), de l’INC (11) avec les sections interdisciplinaires comme la CID 51 et d’autres encore. Le schéma de la figure 1, qui propose une représentation graphique du nombre de candidats se présentant aux concours du CNRS par section et se présentant à plusieurs sections, illustre le rôle central que joue la section 02 dans l’INP par son poids et par ses interactions avec les autres sections. Ces deux éléments témoignent du dynamisme de la section 02 ainsi que de l’attractivité remarquable qu’elle exerce sur les jeunes chercheurs.

Bien que notre section soit largement dédiée à la physique théorique, les expérimentateurs dans des domaines tels que la physique non-linéaire et la mécanique statistique, qui utilisent des méthodes proches de la modélisation, en font aussi pleinement partie.

Cette notion de théorie et modélisation est une composante essentielle et vitale de notre section. Elle se situe souvent en amont de l’expérience et tourne autour de questions fondamentales de la physique à toutes les échelles, permettant la compréhension profonde de la nature par les lois de la physique. Un des exemples les plus célèbres est sans doute la relativité générale, développée par Einstein bien avant sa confirmation expérimentale, sans parler de la conception d’applications telles que le GPS. Des exemples similaires valent pour les lasers, les inégalités de Bell, le boson de Higgs, ou encore les trous noirs.

Figure 1 : Candidatures au CNRS section par section. Le nombre des candidats est proportionnel à l’aire du cercle et le nombre de communs à deux sections à l’épaisseur de la ligne les connectant. L’INP est composé des sections 02, 03, 04 et 05.

En revanche, nombre de grandes avancées scientifiques ont eu lieu grâce à des découvertes expérimentales suivies d’avancées conceptuelles, comme ce fut le cas par exemple pour la supraconductivité à haute, après celle à basse température. Dans ces cas, la section 02 se place en aval des découvertes, en analysant, interprétant et modélisant les résultats. Les rôles peuvent être renversés au cours du temps : la récente détection historique des ondes gravitationnelles émises par l’effondrement d’un système binaire d’objets compacts en est une belle illustration. Rien n’aurait en effet été possible sans l’élaboration de la théorie de la relativité générale, ni sans le calcul précis des formes d’ondes émises par le binaire qui a permis d’interpréter les résultats obtenus. Les récents résultats fondamentaux sur la dynamique des systèmes quantiques ouverts, les percées en informatique quantique, les avancées dans les applications et la compréhension des techniques d’apprentissage profond offrent autant d’autres exemples d’actualité de l’importance cruciale que joue la théorie dans la physique expérimentale.

La section 02 est également proche des mathématiques : elle utilise les outils formels les plus abstraits et elle en crée de nouveaux. Des exemples historiques sont la `fonction’ delta de Dirac, utilisée bien avant sa définition rigoureuse, ou l’intégrale de chemin, que le physicien théoricien utilise pour des calculs de quantités testées dans de nombreuses expériences, alors que sa définition mathématique précise pose encore des défis. On peut faire une longue liste d’exemples contemporains, dans les systèmes intégrables, dans la théorie des champs conformes, dans la théorie des cordes, dans la physique statistique, dans la physique non linéaire et turbulence ou encore dans la géométrie non-commutative, qui ont fourni des concepts inédits pour la compréhension mathématique des groupes quantiques, des invariants topologiques, des théories des grandes déviations, ou encore de l’effet Hall quantique. Ainsi, il existe des liens naturels et très forts entre les mathématiciens de l’INSMI et les physiciens théoriciens de l’INP. Ces liens sont parfois formalisés par des échanges de postes entre les sections 41 et 02.

Ces échanges nous semblent fructueux et importants, car ils contribuent à diffuser les idées des mathématicien.ne.s ou bien des expériences aux physicien.ne.s théoricien.ne.s et vice-versa. Cependant, et comme illustré plus haut, les mathématiques ou la physique expérimentale des grands instruments d’un côté et la physique théorique de l’autre constituent des domaines fondamentalement différents dans leurs approches et dans leurs questionnements, même si leur interaction reste fondamentale pour le développement de la recherche et d’idées nouvelles.

Sur la base des considérations ci-dessus, nous aimerions dans cette introduction mettre en avant quelques messages que nous considérons cruciaux pour le futur de la recherche dans notre domaine.

Le premier message porte sur la nécessité que la recherche en physique fondamentale théorique reste libre. La seule chose que nous pouvons prédire avec certitude est l’avènement de futures ruptures conceptuelles que nous ne saurions ni anticiper ni même imaginer dans ce rapport. Un élément vital pour catalyser de telles avancées conceptuelles est une approche à la recherche libre de tout pilotage, permettant le développement de la connaissance en tant que telle, sans la pression des retombées économiques directes. Cette liberté indispensable est dans l’ADN du CNRS depuis sa création.

Ce fait est aujourd’hui mis à rude épreuve par la culture des financements sur projet. Nous voudrions donc mettre en garde ceux qui pourraient penser qu’un pilotage de la recherche fondamentale soit souhaitable.

Pour introduire le deuxième message, nous aimerions d’abord constater l’énorme nombre de candidat.e.s excellent.e.s postulant chaque année dans notre section. Cela est une conséquence à la fois de l’attractivité de la recherche poursuivie dans notre section et de la grande étendue de nos thématiques. Ce flux de candidat.e.s se traduit par une forte pression sur les postes de chargé de recherche, et aussi sur les promotions. Par exemple, en 2019 nous avons eu 250 candidats pour cinq postes CRCN, dont un pour un laboratoire en section 41 (INSMI). Cela conduit à un taux de sélection de 2 % : ce chiffre impressionnant entraîne un concours extrêmement compétitif, et une très grande qualité des embauché.e.s.

Cette qualité est en soi un élément positif, mais aujourd’hui mis lui aussi à rude épreuve par les menaces qui pèsent sur l’emploi scientifique au sein des organismes publics de recherche et d’enseignement supérieur. À cause de la pénurie de postes, notre section n’arrive désormais à absorber qu’une petite fraction de tout.e.s les candidat.e.s excellent.e.s. Cette situation est très dangereuse, car elle finit par décourager celles et ceux qui aimeraient oser la carrière de la recherche. Notre message est que le maintien d’un flux entrant raisonnable dans la section est essentiel au maintien de l’excellence française dans nos disciplines.

Nous reconnaissons l’effort considérable fait ces dernières années par le CNRS en général, et l’INP en particulier, pour conserver un nombre minimal de postes, mais la section est extrêmement inquiète pour son avenir. En conséquence la section soutient avec la plus grande vigueur les actions de la CPCN pour maintenir, voire augmenter, le nombre de postes de chargé de recherche et de promotions ouverts dans un avenir proche.

1.2 Thématiques de la section

La section est, pour les raisons pratiques, organisée en quatre thématiques, décrites dans la Sec. 1.2. Cependant, il existe un très fort recouvrement entre ces thématiques, qui se manifeste par des outils théoriques communs et par la créativité individuelle des chercheurs, qui ont donné lieu à des avancées majeures. On peut citer comme exemples, l’interface entre l’astrophysique/cosmologie et les systèmes dynamiques et non-linéaires, les démarches de théorie de champs appliquées à la fois en physique des particules et en matière condensée, ou encore l’étude des systèmes hors-équilibre, qui réunit la physique mathématique, la matière condensée et la physique statistique.

Chapitre 1 : Physique des interactions fondamentales, cosmologie, astrophysique

Ce chapitre concerne la compréhension des forces “fondamentales”, soit les interactions à l’origine ultime de tout phénomène. Exception faite de l’interaction électromagnétique, ces forces agissent soit à très courte, soit à très longue distance. En conséquence, on utilise des méthodes basées soit sur des collisions contrôlées à très grande énergie, permettant de tester les distances les plus courtes possibles, soit sur des observations astrophysiques ou cosmologiques, explorant les distances les plus grandes. Les années récentes ont été marquées par deux découvertes majeures dans ces deux extrêmes : la découverte du boson de Higgs, et la première preuve directe de l’existence des ondes gravitationnelles. Ces découvertes ajoutent des éléments cruciaux dans la compréhension des interactions sous-jacentes, et ouvrent de nouveaux domaines de recherche, comme détaillé dans la suite. Il faut remarquer que, malgré ces résultats, la grande majorité du bilan en énergie et en matière de l’Univers reste encore obscure. Pour répondre à ces questions, les méthodes utilisées évoluent constamment.

Interactions fortes

Les interactions fortes sont comprises dans le cadre de la chromo-dynamique quantique (QCD). Elles ont des applications très transversales, allant des calculs de précision de processus produits dans des collisionneurs hadroniques, l’étude de la structure interne des hadrons, la compréhension des processus nucléaires et de la dynamique stellaire, jusqu’à des aspects plus formels tels les dualités, pour lesquels la QCD offre un “banc d’essai” concret.

Le premier des aspects mentionnés, la QCD aux collisionneurs, a connu des progrès vertigineux dans les dernières années, coïncidant avec les Runs 1 et 2 du Grand Collisionneur de Hadrons (LHC) : (1) la totalité des processus est désormais connue au 2e ordre perturbatif (“NLO”) en QCD, et le calcul est entièrement automatisé (“NLO revolution”). Ces calculs sont combinés avec les algorithmes de cascades partoniques et d’hadronisation (qui lient les quarks de la QCD aux états observés, les hadrons) pour obtenir des prédictions dont la précision typique est désormais meilleure que, ou égale à, 10 % ; (2) les jets de hadrons, particulièrement dans le régime de grande énergie (jets “boostés”) sont devenus un domaine de recherche en soi, dont les applications vont jusqu’à l’intelligence artificielle, avec qui elles ont de nombreux sujets de recherche en commun (jet imaging, etc.) ; (3) l’étude des distributions de partons dans les hadrons – une des sources principales d’incertitude – a également atteint le statut de physique de précision, grâce à davantage de données, à de nouveaux calculs et à des techniques numériques nouvelles ; (4) dans son régime non-perturbatif (couplage fort) la QCD peut être discrétisée dans un réseau espace-temps (“Lattice QCD” LQCD) et certaines classes de processus ainsi simulées à partir de principes premiers. LQCD a récemment connu une véritable transition de phase en termes de processus que l’on peut simuler et de la précision que l’on peut atteindre, grâce à une progression dans la compréhension des théories de jauge discretisées, ainsi que dans les techniques de calcul et dans les ressources de calcul.

L’étude de la structure interne multidimensionnelle des nucléons en termes de quarks et gluons, incluant la localisation spatiale, en impulsion et spin, a fait des progrès considérables ces dernières années, et la construction de différents outils théoriques perturbatifs et non perturbatifs permet maintenant d’espérer obtenir une image quantitative précise de cette structure à l’horizon d’une à deux décennies, dans une très large gamme d’énergie. La communauté française y occupe un rôle majeur, en lien étroit avec les expériences actuelles (LHC, Jefferson Lab…), et joue un rôle moteur dans la définition des questions de physique au coeur des projets de collisionneurs électron-proton et électron-ion au CERN et aux USA.

Aux énergies des collisionneurs, la compréhension de multiples effets collectifs dits nucléaires froids, en particulier la saturation gluonique, est essentielle pour caractériser l’état initial dans les collisions d’ions lourds, avant formation du plasma quarks gluons (QGP). La compréhension des processus nucléaires et de la dynamique stellaire s’appuie de façon cruciale sur ces programmes expérimentaux de collisions d’ions lourds, permettant d’explorer la QCD à température finie et à haute densité, et de caractériser le QGP et plus généralement le diagramme de phase de la matière nucléaire. Ce domaine très vaste et très interdisciplinaire offre des liens avec des domaines allant de la physique des fluides aux méthodes formelles dites holographiques. Des progrès récents, reposant sur l’utilisation de théories effectives, permettent, en partant des degrés de liberté fondamentaux de QCD, d’attaquer sous un nouvel angle des questions anciennes et difficiles liées à la compréhension de la matière nucléaire : la structure des noyaux, les réactions nucléaires et leurs applications dans la compréhension de la dynamique stellaire et dans la technologie de la fusion et de la fission.

Interactions électrofaibles et physique au-delà du modèle standard

Dans les dernières années ce domaine a été marqué par une découverte majeure : la découverte d’une particule scalaire dont les propriétés montrent un accord de plus en plus solide avec celles du boson prédit par le mécanisme de Brout-EnglertHiggs. Cette information est une pierre angulaire dans la consolidation du Modèle Standard, notamment du mécanisme de brisure de la symétrie électrofaible. La compréhension de ce mécanisme a des conséquence profondes sur le comportement ultraviolet de la théorie. Par ailleurs, le potentiel de Higgs dans le Modèle Standard est une paramétrisation plutôt qu’une vraie théorie, n’expliquant pas le mécanisme qui engendre une densité non-nulle du champs de Higgs dans le vide, ni sa valeur, ni la raison de sa stabilité par rapport à l’échelle de masse des interactions gravitationnelles, ni les couplages aux fermions. Au-delà de l’intérêt pour l’avancement des connaissances, ces questions sont importantes car elles pourraient avoir une liaison avec le problème concret peut-être le plus pressant du Modèle Standard : l’incapacité de décrire la Matière Noire.

D’un point de vue à la fois théorique et expérimental, ces questions ouvrent de nombreuses pistes d’exploration ultérieure : (a) l’étude de précision des couplages de Higgs, et du secteur électrofaible, particulièrement des polarisations longitudinales des bosons de jauge. Plusieurs projets de successeurs au LHC sont à l’étude à cette fin ; (b) la recherche directe de nouvelles particules dans les données de haute énergie, afin d’établir si une symétrie, ou d’autres secteurs de jauge, qu’ils soient fortement ou faiblement interagissant, entrent en jeu autour de l’échelle électrofaible ; (c) la recherche indirecte de ces nouvelles particules par des modifications dans des processus opportuns, qui dans le cadre du Modèle Standard sont soit interdits, soit très rares à cause de leur structure spécifique.

Cette dernière catégorie est très vaste. Actuellement, les directions principales sont : (1) les tests de précision de processus à haute impulsion transverse ; (2) l’étude des processus de haute intensité et basse énergie, par exemple les désintégrations de hadrons avec changement du nombre quantique dit de saveur (correspondant à la masse des quarks impliqués). Cette étude bénéficie à la fois d’une quantité immense de données, que l’on peut produire à des coûts relativement bas, et de l’existence de cadres théoriques bien compris permettant une grande précision dans les prédictions. Un élément majeur de cette précision sont les avancées dans les techniques de LQCD mentionnées dans la partie Interactions Fortes.

Au-delà de ces directions bien établies, il en existe un grand nombre d’autres qui forment ce qu’on appelle la physique fondamentale au-delà des collisionneurs, un domaine très interdisciplinaire et en pleine évolution. Parmi ces autres directions on peut mentionner, par exemple, la recherche de nouvelles particules légères, attendues dans plusieurs cadres au-delà du Modèle Standard, dont ceux provenant des cordes, et ceux expliquant le “strong-CP problem”, c.-à-d. l’absence apparente de violation de la symétrie CP par la QCD, nonobstant les nombreuses raisons de s’attendre au contraire. De nouvelles techniques de mesure ont été proposées dans le cadre d’expériences de “beam dump”, de techniques basées sur l’interférométrie, sur la résonance magnétique nucléaire, et même sur la population de trous noirs avec des spins et masses donnés. Bien que l’échelle de masse de telles particules légères puisse couvrir plusieurs ordres de grandeur, ces expériences ont des sensibilités complémentaires, et ont des coûts modérés.

Les neutrinos fournissent une réalisation explicite de particules massives légères dans la nature, leur masse non-nulle conduisant à une extension du Modèle Standard, comportant une nouvelle échelle d’énergie (pouvant couvrir plusieurs ordres de grandeur) ainsi que plusieurs nouvelles phases de violation de la symétrie CP. Un objectif important pour les expériences à venir est précisément la possibilité de contraindre ces paramètres.

Astrophysique, cosmologie et gravitation

La France a toujours joué un rôle majeur dans la recherche en astrophysique, en cosmologie et en gravitation de façon plus générale. Ces dernières années, les équipes théoriques dans ces domaines ont eu des contributions marquantes et à l’impact international, que ce soit en cosmologie primordiale, dans la physique de l’énergie noire, celle des grandes structures de l’univers ou des astroparticules, et évidemment dans la physique des ondes gravitationnelles. En particulier, les théories de la gravitation modifiée, introduites pour rendre compte de l’expansion accélérée récente de l’univers ou pour améliorer les propriétés ultraviolettes de la relativité générale, ont été au cœur d’une activité de recherche extrêmement dynamique à l’échelle internationale. Que ce soit les théories massives de la gravitation ou encore les théories tenseur-scalaire, leurs constructions et leurs compréhensions doivent beaucoup aux équipes de physique théorique françaises. Ce domaine de recherche continue à porter ces fruits.

Même si la recherche en physique théorique a toujours été entièrement libre et si elle ouvre des directions originales, inattendues et prometteuses pour répondre aux grandes questions encore ouvertes sur notre Univers (nature du Big Bang et cosmologie quantique, inflation et modèles alternatifs, énergie et matière noire, trous noirs, etc.), elle garde toujours un œil bien ouvert sur les grandes expériences (dans lesquelles certains théoriciens sont concrètement impliqués) et même se structure autour des grandes campagnes observationnelles. Cela sera encore vraisemblablement le cas dans ces prochaines années.

En particulier, les détections récentes par les expériences LIGO/VIRGO de fusions d’objets compacts ont fait naître une vraie dynamique dans la communauté française et mondiale, ouvrant un champ immense de perspectives. Tout d’abord, il faut souligner l’expertise exceptionnelle de la communauté française de physique théorique dans le calcul de précision des formes d’ondes gravitationnelles émises par des systèmes binaires, plus particulièrement dans le régime post-newtonien mais pas seulement. Il conviendrait de maintenir cette expertise à ce niveau d’exception, compte tenu de l’importance que va acquérir la physique des ondes gravitationnelles dans un futur proche et lointain. Il est aussi important de souligner la nécessité de donner les moyens de soutenir et de développer une expertise numérique en relativité générale en lien avec les détections d’ondes gravitationnelles. Ensuite, la confirmation directe de l’existence de trous noirs, y compris super-massifs, et les premières estimations concernant leur abondance, interrogent déjà nos modèles cosmologiques qui se doivent d’expliquer leur présence. Enfin, l’accès inédit aux champs de gravitation forts va permettre de tester la relativité générale dans des domaines jusqu’alors inexplorés, et éventuellement d’observer des déviations qui pourraient nous orienter vers une solution aux problèmes fondamentaux de la cosmologie : nature de l’énergie noire et de la matière noire, voire un guide vers la gravitation quantique.

La recherche en cosmologie théorique va aussi accompagner les missions Euclid et SKA, dont l’étude de la structure à très grande échelle de notre univers a pour but de comprendre la nature de l’énergie noire et de tester la relativité générale, mais qui fournira également des contraintes sur les fluctuations primordiales et notamment les non-Gaussianités. Leurs résultats sont attendus à plus long terme mais vont impacter profondément différents domaines, ce qui implique de se préparer au mieux en développant en France les expertises nécessaires.

Pour finir, notons que les mesures de haute précision du spectre local du rayonnement cosmique stimulent des efforts considérables de modélisation et créent des synergies entre de nombreux domaines : astrophysique des hautes énergies (via l’étude des sources conventionnelles), physique des particules (via l’étude de sources exotiques), physique des plasmas (via le transport de particules dans la turbulence ainsi que l’accélération de particules), physique nucléaire (via les sections efficaces), physique stellaire (via les sources), et même physique du milieu interstellaire (via les phénomènes d’ionisation). L’expérience AMS apporte des mesures d’une précision inégalée. Tandis qu’aux énergies extrêmes, la phénoménologie du rayonnement cosmique a été marquée par la détection d’anisotropies dans les cartes du ciel des directions d’arrivées, à différentes échelles et différentes énergies. Les résultats de l’observatoire Pierre Auger semblent confirmer l’origine extragalactique du rayonnement cosmique vers 10 EeV. En parallèle, le relevé profond du plan galactique au-delà de 200 GeV par la collaboration H.E.S.S. a permis d’étudier les populations d’objets accélérateurs de particules dans la Galaxie, parmi lesquels une majorité de nébuleuses de pulsar. Combinées aux observations Fermi-LAT, ces mesures couvrent plus de 6 décades en énergie et permettent une excellent modélisation du cycle de vie du rayonnement cosmique.

Au niveau des perspectives, le rayonnement cosmique, après être devenu multi-longueur d’onde et multi-messager ‘simple’ (entre leptons et nucléons), devient multi-messager ‘étendu’ avec l’ouverture des ondes gravitationnelles. Ceci va probablement marquer une révolution thématique avec la montée en puissance du domaine de l’Univers transitoire.

Chapitre 2 : Physique Mathématique et Méthodes Théoriques

La physique mathématique irrigue l’ensemble de la physique théorique, des ondes gravitationnelles jusqu’à la matière condensée ou la physique classique des systèmes dynamiques. Elle fournit en effet des concepts bien formalisés et des résultats rigoureux qui sont des points d’appui essentiels pour une compréhension en profondeur des lois de la physique. La théorie des champs et le groupe de renormalisation sont des concepts unificateurs. La compréhension de leur structure mathématique continue de progresser, en lien avec des mathématiciens en nombre croissant et à l’aide d’outils tels que le calcul résurgent d’Ecalle ou les développements en vertex à boucles. La théorie des champs reste étudiée sous sa forme classique pour la physique des particules, mais aussi et de plus en plus sous des formes plus abstraites, en lien avec la quantification de la gravité.

Ce dernier problème est sûrement l’un des plus fondamentaux de toute la physique moderne. Il concerne le comportement à très petite échelle (on pourrait dire super-microscopique) de cette interaction. En effet, alors que la gravitation fut l’une des premières interactions fondamentales à être étudiée et comprise dans des processus “ordinaires” (gravitation de Newton) ou même relativistes (relativité générale), elle résiste jusqu’à présent à une compréhension microscopique équivalente à celle des autres interactions fondamentales.

Théories de cordes

Le chemin le plus étudié pour la quantification de la gravité et son unification avec les autres forces fondamentales est celui de la théorie des cordes. En théorie des cordes, les particules du modèle standard et le médiateur de la force gravitationnelle, correspondent aux excitations d’un objet étendu uni-dimensionnel, la corde. A basse énergie, la dynamique de la corde est décrite par des théories de champs, qui contiennent relativité générale et théories de jauge. La structure de la théorie est très riche et combine une grande variété d’idées physiques et mathématiques.

Les relations de symétrie (dualités) entre les différents types de théorie des cordes et l’existence d’objets étendus (D-branes) ont permis de trouver un grand nombre de relations plus ou moins inattendues entre différentes théories de champs supersymétriques. Leur étude a révélé des liens profonds avec la géometrie algébrique et énumérative d’un coté, et, de l’autre, a permis de retrouver ou découvrir de nouvelles structures intégrables et de faire le lien avec des progrès récents dans la théorie des représentations, des algèbres en amas ou des algèbres toroïdales.

L’exemple le plus frappant de dualité en théorie de corde est celui de la correspondance holographique, où une théorie de champs fortement couplée en d dimensions est mise en correspondance avec une théorie de cordes sur un espace à courbure négative (anti de Sitter) en d + 1 dimensions. Cette correspondance, qui a été vérifiée en grand détail pour certaines théories super-conformes à grand nombre de degrés de liberté et avec supersymétrie maximale, notamment en utilisant les techniques de l’intégrabilité, est aussi explorée pour des théories plus réalistes et moins symétriques. En particulier elle fournit aussi une approche alternative aux outils numériques dans l’étude des systèmes fortement corrélés en matière condensée ou au régime de couplage fort de la QCD.

L’origine microscopique de l’entropie des trous noirs est une question centrale pour toute théorie de la gravité quantique. Un succès de la théorie des cordes a été la dérivation de l’entropie en terme d’états de D-brane, grâce à des résultats avancés en géométrie algébrique et en théorie des nombres, pour des trous noirs supersymétriques en espace plat. Des progrès importants ont été aussi accomplis pour les trous noirs dans les espaces anti-deSitter, où, grâce à la dualité holographique, l’entropie du trou noir est calculée dans la théorie de jauge duale avec des techniques de localisation. La généralisation aux trous noirs non supersymétriques reste un problème ouvert.

Un autre problème fondamental reste la classification des vides de la théorie et la réduction des dimensions supplémentaires par compactification. Les propriétés des variétés des compactification sont centrales dans la dualité holographique et dans toute application phénoménologique de la théorie. Leur étude requiert des techniques sophistiquées en géométrie différentielle et algébrique. De nouvelles approches en mathématiques ont permis la construction d’un grand nombre de nouveaux vides et le développement de méthodes pour la construction des actions effectives en basse dimension. Les vides avec constante cosmologique négative et les actions effectives correspondantes ont des applications intéressantes en holographie. La construction de modèles utilisables en phénoménologie reste un problème ouvert, à cause de l’absence de contrôle sur les déformations des vides non Calabi-Yau. La construction de vides non-supersymétriques avec constante cosmologique positive (de Sitter) est encore plus problématique et discutée. Les exemples connus jusqu’à présent sont rares et peu satisfaisants. C’est d’ailleurs une des motivations de la conjecture de “marais” (swampland), qui exclut l’existence de vides de Sitter en théorie des cordes. La recherche de contre-exemples à la conjecture et d’explications alternatives pour la phase actuelle d’expansion de l’univers est un domaine très actif en lien étroit avec la cosmologie. La théorie de cordes, la dualité holographique et des méthodes issues de l’intégrabilité ont aussi motivé le développement de nouvelles techniques pour le calcul des amplitudes de diffusion en théories des champs. Il s’agit désormais d’un domaine autonome. Parmi les progrès récents on peut citer l’évaluation avec des méthodes issues de l’intégrabilité de certaines intégrales de Feynman utiles pour la QCD, des résultats sur des déformations intégrables non-supersymétriques et des résultats allant au-delà de la limite dite planaire.

Gravité à boucles et modèles de tenseurs aléatoires

Outre la théorie des cordes, la gravitation quantique à boucles et les modèles de matrices et de tenseurs aléatoires sont particulièrement étudiés en France. L’idée de base de ces approches, dans lesquelles la communauté française se distingue particulièrement par sa créativité et son dynamisme, est d’adapter les méthodes de la théorie quantique des champs directement à la théorie d’Einstein de la relativité générale en considérant l’espace-temps et sa métrique comme les entités fondamentales. Une de leurs caractéristiques principales est de tenter de quantifier la gravitation sans se référer à un espace ou une métrique particulière dite de fond, contrairement à ce qui se passe dans les théories quantiques des champs habituelles. La gravité à boucles se base principalement sur des objets mathématiques appelés mousses et réseaux de spin. Même si elle n’a pas encore abouti à une théorie définitive, la communauté correspondante en France s’est tournée, ces dernières années vers l’étude d’aspects plus phénoménologiques en lien avec la cosmologie ou l’astrophysique.

En parallèle les modèles de matrices et de tenseurs aléatoires fournissent une somme sur les géométries de l’espace-temps pondérées par la courbure. Dans le cas des matrices il s’agit de gravité quantique à deux dimensions. Les travaux des dernières années utilisent des outils de combinatoire pour contrôler la métrique et ont achevé d’établir l’équivalence rigoureuse entre modèles de matrices et théorie de Liouville. La récurrence topologique d’Eynard-Orantin, dont le champ d’action s’est beaucoup élargi, permet le calcul d’invariants topologiques importants à la fois en mathématique et en physique. Les recherches continuent aussi en théorie non-commutative des champs, qui sont une forme généralisée des modèles de matrices.

L’étude des modèles de tenseurs, qui étendent en rang plus élevé la notion de matrices aléatoires, a été relancée à partir des années 2010 par la découverte de leur limite analytique de grande taille, dite melonique. En 2015 cette même limite s’est indépendemment révélée la clé de la solution du modèle de Sachdev-Ye-Kitaev (SYK) qui est une théorie presque conforme à une dimension saturant la borne de chaos maximal, donc un modèle holographique de trou noir quantique en espace anti-de Sitter à deux dimensions. La relation entre le modèle SYK et les modèles de tenseurs, proposée par Witten dès 2016, reste à approfondir et élucider. Il est cependant déjà acquis que les modèles de tenseurs fournissent de nouveaux exemples de théories conformes explicitement solubles. Leurs applications, en matière condensée comme dans l’analyse de données, sont appelées à se développer fortement dans les prochaines années sous l’impulsion de l’école française, fondatrice en ce domaine.

Systèmes intégrables

Les systèmes intégrables présentent un intérêt tout particulier pour le physicien car il est possible de calculer exactement, et souvent analytiquement, leurs grandeurs physiques caractéristiques. La raison essentielle en est un cadre mathématique très structuré qui entraîne assez de contraintes (symétries) pour rendre le modèle soluble. Bien que ces systèmes n’existent essentiellement qu’en dimensions 1 et 2, ils fournissent un formidable laboratoire d’étude pour tester des conjectures ou des hypothèses inaccessibles par ailleurs. Leur domaine d’application est vaste et recouvre des aspects très variés de la physique des hautes comme des basses énergies (théorie des cordes, théories de jauge supersymétriques, correspondance AdS/CFT, matière condensée, physique statistique, etc.). Des développements expérimentaux récents permettent maintenant de tester les prédictions intégrabilistes avec un accord souvent remarquable, et même de prédire de nouveaux phénomènes liés à l’intégrabilité (absence de thermalisation). Enfin, les systèmes intégrables gardent de fortes connections avec les mathématiques : on pourra par exemple noter les travaux récents sur les polynômes orthogonaux, dans un cadre algébrique basé sur l’approche intégrabiliste.

Dans le cadre des systèmes intégrables quantiques, les progrès réalisés aux cours des dernières décades permettent actuellement d’avoir une bonne description de la physique à l’équilibre (calcul du spectre, mais aussi des fonctions de corrélation) des modèles les plus simples solubles par les techniques d’ansatz de Bethe, tels que la chaîne de Heisenberg de spins 1/2 ou le gaz de Bose unidimensionel.

L’un des défis actuels du domaine concerne la généralisation de ces résultats à des modèles pour lesquels la méthode usuelle d’ansatz de Bethe ne peut pas être directement utilisée, ou produit un cadre calculatoire beaucoup plus compliqué. Dans ce but, de nouvelles approches (modifications de l’ansatz de Bethe algébrique, raffinement de la version quantique de la méthode de séparation des variables…) ont récemment été développées. Celles-ci ouvrent la voie à la résolution de toute une classe de modèles qui, bien que qualifiés d’intégrables, n’étaient encore pas véritablement résolus, tels que par exemple les modèles avec des conditions au bord arbitraires, utiles pour modéliser les phénomènes de transport. Une autre avancée récente significative concerne la résolution de modèles intégrables avec des degrés de liberté internes, pour lesquels la complexité des calculs empêchait jusqu’alors d’obtenir des résultats exploitables : ces nouveaux résultats sont particulièrement importants pour leurs applications potentielles au calcul d’amplitudes de diffusion dans les théories de jauge supersymétriques.

Par ailleurs, l’étude de la dynamique hors d’équilibre des systèmes quantiques isolés est en plein développement, et les systèmes intégrables jouent un rôle central dans l’élaboration de nouveaux paradigmes. Ainsi, pour décrire la relaxation d’un système intégrable, il est nécessaire de faire appel à la notion d’ensembles de Gibbs généralisés, introduite tout récemment. D’autre part, une description hydrodynamique de leur limite continue (macroscopic fluctuation theory, MFT) a été récemment proposée comme une version hors équilibre de la thermodynamique. Les systèmes intégrables permettent de décrire de manière microscopique des modèles dont la limite à volume infini (et/ou la limite continue) est décrite par la MFT, et permettent ainsi de tester cette théorie.

Théories conformes

Les théories conformes exploitent elles aussi un cadre mathématique pour décrire la limite d’échelle des modèles critiques. L’approche dite du bootstrap conforme a amplement montré sa puissance pour le calcul des exposants critiques, non seulement dans le cas très contraint de la dimension 2, mais aussi plus récemment en dimension supérieure. On peut noter aussi l’étude de déformations calculables des théories conformes à deux dimensions en termes du tenseur énergie-impulsion. Un défi toujours actuel concerne la construction et l’étude de théories non-unitaires permettant de décrire des phénomènes non-locaux tels que la percolation. C’est un sujet très actif, à la croisée de différentes approches (construction de représentations non semi-simples de l’algèbre de Virasoro donnant lieu à des théories logarithmiques, modification du bootstrap conforme, analyse des limites d’échelles de modèles intégrables sur réseau possédant la symétrie de Temperley-Lieb), et certainement amené à se développer dans les prochaines années.

Chapitre 3 : Matière condensée et systèmes quantiques

Pendant la dernière décennie le paysage de la matière condensée en France était très largement influencé par le développement d’expériences sur des systèmes synthétiques tels que les systèmes d’atomes piégés individuellement, les circuits supraconducteurs ou les nanostructures à semiconducteur qui offrent des plateformes novatrices dans les thèmes de la matière condensée et de la physique quantique à N corps en interaction forte. Ces développements en basse dimension ont permis de construire des systèmes expérimentaux “idéaux” possédant un accord sans précédent avec les modèles théoriques. En conséquence, de nombreuses portes se sont ouvertes vers les phases topologiques, les technologies quantiques et le problème à N corps quantique en général.

Du côté des matériaux, la question clé encore non résolue reste l’origine microscopique de la supraconductivité à haute température. La recherche de systèmes expérimentaux “idéaux” et de nouveaux matériaux s’intensifie, particulièrement ceux montrant des phases de liquides quantiques, des phases topologiques et des théories de jauge émergentes.

Dans un futur proche, la recherche en technologie quantique et en information quantique, comme le développement des réseaux artificiels des q-bits, va s’intensifier. Les tendances pour les phases topologiques vont vers les systèmes de fermions fortement corrélés et vers une classification complète de toutes les phases topologiques possibles. La dynamique des systèmes quantiques ouverts et les trempes quantiques continueront de jouer un rôle majeur dans le paysage avec par exemple l’évolution vers deux dimensions. Nous voyons aussi l’arrivée d’une révolution numérique avec les nouvelles techniques comme les réseaux de tenseurs qui donnera un accès détaillé aux systèmes intriqués, ainsi que le développement de techniques d’apprentissage profond pour le traitement des données et l’optimisation d’algorithmes numériques.

Ci-dessous nous développons ce rapport dans plusieurs directions spécifiques. Ce choix est évidement non-exhaustif mais reflète en partie les activités effectuées au sein de la section.

Matériaux quantiques et émergence

La découverte, il y a plus de trente ans des supraconducteurs à haute température a motivé une véritable explosion de l’étude des systèmes de fermions fortement corrélés et de la recherche de nouveaux matériaux possédant des phases exotiques quantiques. Trente ans plus tard le problème de la supraconductivité est toujours là et plusieurs phénomènes, comme la phase dite “pseudo-gap”, précurseur de la phase supraconductrice, restent inexpliqués. La recherche des états proches de l’état “resonating valence bond” d’Anderson a donné naissance à la notion de liquide de spin. La chasse aux liquides de spin quantiques, ouverte depuis dix ans a fortement contribué à l’étude de l’intrication pour le problème à N corps et pour les phases topologiques. Un concept important, associé à ces phases liquides, est la description en termes de champs de jauge émergents, qui définit un cadre théorique extrêmement attirant et créant les liens importants avec les théories de champ à haute énergie. Dans ce cadre on peut citer la famille de matériaux et modèles sur réseau de pyrochlore fournissant des liens très proches entre théorie et expérience.

Topologie

L’utilisation de la topologie évolue actuellement en physique au-delà du domaine initial de description des électrons dans les solides. Après les grands succès que ce domaine a connu, tels que la classifications des isolants et supraconducteurs topologiques ou la maîtrise de l’effet Hall quantique entier et fractionnaire, la caractérisation des propriétés topologiques des ondes mécaniques, de la lumière ou des mélanges lumière-matière est actuellement en plein essor. Ces développements touchent donc la matière condensée, la mécanique des fluides, les technologies quantiques et la simulation quantique. On peut citer par exemple l’application des concepts topologiques aux modes d’écoulement de vent équatorial.

Au-delà de ces progrès, un nouvel axe de recherche important est la réalisation expérimentale de nouvelles phases dans lesquelles les interactions et la topologie s’associent, qui a immédiatement entraîné de nouveaux défis théoriques. L’objectif est ici la découverte de phases analogues et généralisant l’effet Hall quantique fractionnaire. Deux axes peuvent être mentionnés : (i) la réalisation de telles phases dans des réseaux d’atomes froids via des champs de jauge artificiels, (ii) les phases isolantes et supraconductrices dans les phases de Moiré de bicouches de graphène.

Systèmes synthétiques et technologie quantique

L’étude des systèmes synthétiques se nourrit sans cesse de très belles avancées technologiques. Comme exemple on peut citer le domaine de la physique atomique, où l’on peut piéger de plus en plus finement les atomes de manière individuelle dans des géométries arbitraires en utilisant les réseaux optiques. Ces réalisations expérimentales ont atteint un régime de cohérence et de contrôle menant à des opportunités nouvelles pour l’étude approfondie des systèmes quantiques à N corps et motivant des avancées théoriques remarquables. Plusieurs autres plateformes de simulateurs quantiques sont en cours de développement, notamment des ions piégés, des réseaux de q-bits supraconducteurs ou des points quantiques et des cavités et circuits d’électrodynamique quantique. Ce domaine de recherche avance très vite, motivant le développement de protocoles permettant de mesurer le spectre d’intrication, des indicateurs de chaos quantique, la détection d’ordre topologique mais aussi la caractérisation des états exotiques de la matière et les transitions de phases correspondantes.

Comme il devient possible de réaliser en laboratoire des systèmes contrôlables permettant de tester certains modèles de physique théorique, on peut anticiper qu’un nombre croissant de modèles testables en laboratoire pourront alors être imaginés par les théoriciens. On peut aussi penser que des aspects propres aux systèmes réalisés devront être incorporés dans les analyses théoriques.

La manipulation d’états quantiques cohérents de plus en plus complexes continuera à être un domaine très actif avec l’objectif ultime de construire un ordinateur quantique. De multiples questions seront abordées : dans la mesure où l’on cherche à coupler des systèmes quantiques de nature différente (photons, q-bits à base de supraconducteurs ou semiconducteurs, nano-oscillateurs mécaniques…), quelle est la forme du couplage entre des systèmes quantiques de nature très différente ? Une physique nouvelle peut-elle émerger dans le contrôle dynamique à haute-fréquence (du GHz au THz) de ces objets ? Existe-t-il des limites physiques ultimes au nombre d’objets quantiques qui peuvent être manipulés de façon cohérente dans un système réel ?

Ces frontières de cohérence d’un système quantique à N corps mènent à la question de la “suprématie quantique”, à savoir à l’idée que dans un futur très proche une machine quantique (c’est-à-dire un ensemble de processeurs quantiques) puisse donner l’évolution d’un état d’un système de N q-bits pour un N plus grand et/ou un temps plus longs que ceux atteignables par tous les algorithmes et les plateformes de calcul classiques.

De façon plus générale, la physique mésoscopique devrait continuer à examiner les propriétés nouvelles qui peuvent émerger lorsque deux matériaux aux propriétés distinctes sont combinés dans une hétérostructure. De grands progrès sont en cours dans le domaine des “matériaux quantiques” aux propriétés de mieux en mieux contrôlées (matériaux 2D tels que le graphène ou les dichalcogénures, par exemple). Ils ouvrent des perspectives pour la réalisation de jonctions hybrides avec des propriétés encore inexplorées.

Dynamique quantique et systèmes hors équilibre

La recherche de nouvelles fonctionnalités dans les matériaux quantiques a été étendue aux états hors équilibre. En conséquence, de nombreuses facettes de la dynamique des systèmes quantiques apparaissent dans les projets de la recherche de la section 02. Beaucoup de progrès ont été réalisés dans les problèmes de trempes dans des systèmes unidimensionnels et sur la formation des états quasi-stationnaires, où les techniques des systèmes intégrables ont été très importantes (voir Sec. 1.2). Des avancées notables ont été également réalisées dans l’ingénierie de Floquet sous contrainte externe périodique en temps. À court terme on peut espérer voir des progrès dans les régimes dépendants du temps, les états préthermiques et les “cicatrices quantiques”. Comment aborder les systèmes au-delà de la dimension 1 est une question qui commence à être étudiée, mais ce domaine présente des défis considérables. Un autre problème qui attire l’attention concerne des trempes à une densité d’énergie dans un système proche d’une transition de phase à température finie (en une dimension ceci n’est possible que si l’on a des interactions à longue portée). D’autres directions de recherche impliquent des systèmes ouverts et on s’attend à ce qu’ils attirent une grande attention.

Une autre classe de systèmes, où la dynamique quantique est très intéressante, est celle des systèmes désordonnés en interaction. Les effets de désordre, sous la forme de localisation à N corps (MBL), restent un sujet de grand intérêt où la nature de la transition dans les systèmes unidimensionnels reste à comprendre en détail. Par exemple le rôle de la nature du désordre, ou l’importance des événements rares sont des thèmes d’actualité. Si les simulations numériques indiquent la possibilité d’un régime MBL en deux dimensions à temps long, l’existence ou non d’un tel régime reste une question très difficile à résoudre.

Méthodes et algorithmes

Le progrès scientifique avance main dans la main avec les développements techniques. Comme exemple on peut citer l’étude de la transition métal-isolant par la technique “DMRG” ou l’avancée de notre compréhension de la structure de l’intrication des hamiltoniens locaux obtenue grâce à des méthodes de réseaux de tenseurs. La correspondance AdS-CFT a permis une nouvelle interface entre la physique des hautes énergies et la matière condensée. Cette correspondance a ouvert la voie à un véritable échange des cultures et des méthodes de théorie des champs dans les deux domaines, révélant par exemple des phénomènes holographiques ou électrodynamiques émergent en basse énergie ou menant à des correspondances grâce au modèle de Kitaev.

L’augmentation incessante de la puissance numérique repousse continuellement les nouveaux horizons de la recherche. Nous avons déjà noté les avancées potentielles vers la suprématie quantique, mais en contrepartie on note que la notion de ce qui est “atteignable” théoriquement par les méthodes classiques (pour traiter les problèmes quantiques) est aussi en évolution. Au-delà de la diagonalisation exacte, la frontière de la simulation classique repose sur les approches variationnelles, la DMRG en étant un archétype de puissance remarquable mais qui a aussi des limitations importantes. Cependant de nombreux autres ansätze variationnels sont à l’étude en ce moment – par exemple un ansatz qui rencontre un immense succès est basé sur la paramétrisation des coefficients de la fonction d’onde sous la forme d’un réseau de neurones. D’autres encore se prêtent essentiellement au même traitement théorique.

Comme on a vu dans ce chapitre, un grand défi pour toutes ces méthodes dans un proche avenir est le passage de ces techniques vers la dimension d = 2 + 1 pour accéder aux systèmes bidimensionnels à température nulle, à température finie et en présence de désordre.

L’apport des techniques d’apprentissage automatique – “machine learning” en anglais (ML) – à la physique de la matière condensée est considérable, car comme pour de nombreuses autres branches des sciences, les techniques de ML aident à résoudre des systèmes complexes. Un exemple est donné par le traitement des données d’expériences de diffusion de neutrons dans un espace multi-dimensionnel. Au-delà d’applications directes comme la reconnaissance de phases à partir d’images de simulations numériques ou d’expériences, les techniques de ML sont amenées à se coupler avec d’autres approches numériques déjà existantes pour développer de nouveaux algorithmes Monte Carlo : les méthodes Monte Carlo variationnelles (à ansatz de fonctions d’onde en réseau de neurones, “deep autoregressive networks”), les méthodes de réseaux de tenseurs (qui vont bénéficier de la différentiation automatique), ou les méthodes de l’apprentissage par renforcement.

Chapitre 4 : Physique statistique, physique non-Linéaire et applications

La physique théorique reste une source incomparable de développements conceptuels majeurs pour la physique classique, par l’intermédiaire d’une part de la physique statistique et d’autre part des systèmes dynamiques et des phénomènes non-linéaires. Au-delà de leurs progrès fondamentaux propres, ces domaines sont au cœur d’avancées majeures en biophysique, physique des réseaux, turbulence, plasma, machine learning, éconophysique, et dans l’étude de systèmes dynamiques complexes comme le climat. L’impact des méthodes de physique théorique est très fort, car elles apportent des outils qui formalisent la compréhension de leurs dynamiques et de leurs structures complexes.

Physique statistique à l’équilibre

La physique statistique à l’équilibre permet d’expliquer des lois macroscopiques thermodynamiques à partir de descriptions microscopiques. On peut désormais décrire dans ce cadre des systèmes dont la structure est de plus en plus riche (solutions, fluides complexes, réseaux, vivant). L’étude des systèmes désordonnés, des verres aux interfaces rugueuses et réseaux complexes, a été le théâtre d’avancées majeures. La généralisation de concepts développés pour des systèmes idéaux (en “dimension infinie”) vers des systèmes réalistes a apporté une moisson de résultats et de méthodes. Ainsi, les transitions et les lois d’échelles universelles de certains systèmes vitreux ont été élucidées. De nouveaux outils numériques (algorithme de “swap”, apprentissage profond, algorithmes d’événements rares, “event-chain Monte Carlo”) permettent de sonder des échelles de temps et d’espace inaccessibles auparavant. Certains systèmes, comme les solutions denses, les émulsions, les empilements, présentent un “désordre structurel” (généré par les configurations) qui a longtemps été très difficile à saisir par des outils autres que numériques. De nouvelles méthodes analytiques basées sur l’étude des excitations et des défauts ont été la source d’avancées considérables pour l’étude du vieillissement dans les milieux granulaires ou la transition de “jamming” (qui décrit l’effondrement ou la stabilisation d’empilements). Les concepts qui en ont émergé (transitions de phase reliées à la complexité, nouvelles classes d’universalité) sont bien cernés sur des modèles spécifiques et leur généralisation va jouer un rôle important dans les développements futurs de la physique statistique.

Physique statistique hors d’équilibre

De nombreux systèmes sont décrits par un grand nombre d’agents en interaction irréversibles. Les bactéries, les oiseaux ou les piétons ont ceci en commun de dissiper de l’énergie pour se propulser, et sont décrits dans le cadre de la “matière active”. Des concepts d’équilibre comme la pression, la tension de surface, ou la notion d’équation d’état, deviennent mal définis dans ces systèmes hors d’équilibre. Les outils de physique théorique (théorie des champs) sont essentiels pour développer de nouveaux concepts pertinents. Par exemple, la description de la séparation de phase induite par la motilité a inspiré la définition et la résolution de modèles en interaction, dans le régime non-perturbatif de certains phénomènes actifs.

L’équation de Kardar-Parisi-Zhang (KPZ) et sa classe d’universalité sont paradigmatiques de nombreux systèmes hors équilibre, par exemple la croissance de surfaces et d’interfaces. Pendant la dernière décennie, la description complète et exacte de ses fluctuations a renouvelé ce domaine. Des retombées majeures ont été visibles au-delà de la physique statistique, en matière condensée (dynamique de fermions piégés) ou en physique mathématique (intégrabilité). Ces résultats ouvrent la voie à la compréhension générique de l’interaction entre désordre et force conduisant un système hors d’équilibre, particulièrement importante au niveau fondamental (transition de dépiégeage) et pour les applications (tremblements de terre, phénomènes d’avalanche).

Au niveau méthodologique, la théorie des grandes déviations a joué un rôle majeur pour décrire les fluctuations et les événements rares. Le “théorème de fluctuation” permet par exemple de concevoir des protocoles de changement d’état en temps fini. Des avancées théoriques ont permis de comprendre les fluctuations d’observables dynamiques et de concevoir des algorithmes pour étudier les fluctuations rares, avec de nombreuses applications allant de la théorie cinétique à l’étude des extrêmes dans des modèles de climat.

Systèmes dynamiques, physique non-linéaire et turbulence

La France a une tradition forte d’une approche physique, à l’interface avec la physique statistique, des problèmes fondamentaux en mécanique des fluides, en turbulence, et en dynamique des plasmas. Elle possède aussi des groupes uniques d’expérimentateurs visant une science directement couplée à ces questions fondamentales et donc parfaitement intégrés dans la section. Il est notable que les équipes françaises ont obtenu en 2019 deux financements de la fondation Simons, en turbulence et turbulence d’ondes.

Ces dernières années, la théorie des systèmes dynamiques a été très active dans les domaines de la dynamique des réseaux complexes, de la caractérisation des extrêmes, des bifurcations, et du couplage des questions théoriques associées avec la théorie des grandes déviations. De nombreux progrès ont également été obtenus sur les comportements thermodynamiques des systèmes dynamiques et la caractérisation statistique de la production d’entropie et les théorèmes de fluctuation. La turbulence d’ondes étudie les propriétés statistiques d’un ensemble d’ondes en interaction. Au cours des dernières années, la France a joué un rôle de premier plan pour la confrontation de la théorie de la turbulence faible à des travaux expérimentaux, et pour ses applications à de nombreux domaines. Une recherche interdisciplinaire entre physique statistique, physique non linéaire, et mathématique a été initiée en France et a été reconnue au niveau international.

Dans le domaine de la turbulence développée, la construction de champs aléatoires avec les propriétés spécifiques des champs turbulents, et l’étude de l’intermittence et des structures qui conduisent à l’anomalie dissipative, sont parmi les questions fondamentales. De nombreux progrès ont été enregistrés, par exemple des mesures récentes de vitesse à très haute résolution suggèrent que cette anomalie est associée à des événements extrêmes à très petite échelle, qui pourraient être la signature de quasi-singularités des équations de Navier–Stokes.

En modélisation lagrangienne de la turbulence de nombreuses questions fondamentales sont d’importance stratégique pour le transport de polluants, les nuages, la dynamique de l’atmosphère. Les outils théoriques qui permettent de décrire les processus d’instabilité et ou de cascade inverse qui engendrent une dynamique à grande échelle couplée à une turbulence à toutes les échelles suscitent un grand intérêt en géophysique et en astrophysique.

Les nouveaux outils de mesure comme les caméras rapides à haute résolution, ainsi que les nouveaux outils d’apprentissage automatique se développent rapidement dans tous les domaines de la turbulence et des plasma et permettent d’envisager des avancées majeures. Après les succès de développement d’écoulements cryogéniques en hélium normal et superfluide, le mécanisme de dissipation en turbulence superfluide et son lien avec les tourbillons quantiques restent une question fondamentale ouverte.

La communauté est très impliquée dans l’étude fondamentale des plasmas soit par des modèles de type fluides ou cinétiques soit par la modélisation numérique. De nombreuses expériences émergent (instabilités, dynamo, chocs, jets…) dans des gammes variées de paramètres et en couplage fort avec les développements théoriques.

La communauté de physique théorique a contribué à résoudre des problèmes importants de la dynamique du climat, qui échappaient aux approches traditionnelles : calcul d’extrêmes dans les modèles climatiques avec un temps de calcul raisonnable, propriétés topologiques des fluctuations de la dynamique atmosphérique équatoriale, problèmes de mélange turbulent en océanographie, calcul et caractérisation de transitions rares entre attracteurs en dynamique de l’atmosphère (changements abrupts de climat). Ces approches devraient être fructueuses dans le futur pour améliorer les paramétrisations sous mailles, source principale d’incertitude des modèles de climat, en utilisant théorie et apprentissage automatique.

Physique du vivant

La biophysique construit des théories quantitatives pour décrire le fonctionnement des organismes vivants. Ces organismes obéissent aux mêmes lois physiques que le reste du monde mais leur fonctionnement implique des processus originaux : évolution (événements rares), représentation plastique de l’environnement (avec une précision stupéfiante), décisions irréversibles. La caractérisation de leurs conséquences, de leur stabilité et de leurs limites physiques (bruit, coûts énergétiques imposés aux systèmes biologiques) reste un défi.

Les systèmes vivants sont d’excellents exemples du principe “more is different” de la physique à N corps. Leurs interactions fortes, non-linéaires et hors d’équilibre nous mettent au défi de trouver des descriptions effectives qui rendent compte du comportement observé. En écologie comme en neuroscience émergent des phénomènes collectifs souvent hors d’équilibre. D’une part, la physique existante explique les comportements complexes observés en biologie, comme les attracteurs de mémoire, la chimiotaxie ou la navigation. D’autre part, les systèmes biologiques incitent à découvrir de nouveaux principes physiques ou états de la matière : la matière active observée chez les animaux ou les transitions de phase dans les tissus. La biophysique utilise des méthodes venant de l’informatique, de la théorie de l’information et de la théorie du contrôle pour analyser les données à grande échelle. Elles offrent une amélioration conceptuelle essentielle pour la compréhension de ces données et de leur liens avec les mécanismes physiques.

Nous manquons de cadres bien établis en biophysique théorique, ce qui en fait un domaine où l’analyse statistique des phénomènes observés à travers différentes échelles conduit à des modèles abstraits. Les défis vont au-delà de la modélisation mathématique : il s’agit d’identifier les principes et les lois de la biologie, et de construire des théories phénoménologiques du vivant pour comprendre la reproductibilité, la précision et la prévisibilité.

Inférence statistique et algorithmes

L’apprentissage automatique (ML, voir plus haut) jouera probablement un rôle majeur dans la société et dans le développement des sciences dans le futur. Ce domaine a bénéficié de l’influence de la physique statistique depuis ses débuts, voir par exemple la machine de Boltzmann ou l’échantillonnage de Gibbs et est un domaine en plein essor. La compréhension théorique du ML requiert l’analyse de problèmes en grandes dimensions, ce qui constitue la spécialité de la mécanique statistique. Les méthodes de la physique des systèmes désordonnés s’avèrent puissantes pour décrire et comprendre des modèles des réseaux de neurones et le comportement dynamique des algorithmes d’apprentissage. Les physiciens contribuent aussi aux algorithmes basés sur le maximum de vraisemblance ou des techniques d’optimisation, grâce aux modèles physiques sous-jacents. Les physiciens ont surmonté des questions qui étaient des défis pour les mathématiciens, par exemple en identifiant des transitions de phase. Ceci a permis de concevoir de nouveaux algorithmes puissants.

La physique apporte aussi une myriade de problèmes bien posés avec des données provenant d’une source bien décrite pour utiliser et développer les méthodes de ML. Les algorithmes de ML, utilisés comme un outil pour définir et construire des modèles prédictifs, nous aideront à mieux comprendre les systèmes physiques tout en éclairant l’interprétabilité des résultats d’apprentissage automatique, qui restent parfois mystérieux.

Science des réseaux et sciences humaines

La “révolution des données” a permis de représenter par des réseaux complexes des systèmes très divers, dans les domaines de l’informatique (internet, réseaux pair-à-pair), de la biologie (réseaux de régulation génétique, écologie), des sciences sociales (réseaux sociaux, réseaux en ligne), de la finance (réseaux bancaires) ou de l’épidémiologie (propagation de maladies).

La physique statistique joue depuis toujours un rôle moteur dans ce domaine, grâce à sa capacité unique à prédire et décrire les phénomènes émergents (corrélations, lois d’échelles, concept d’universalité), à modéliser des processus dynamiques (transitions de phase hors équilibre, bifurcations). Les algorithmes performants pour détecter des structures, et les outils de ML montrent des résultats prometteurs. De nombreux problèmes restent ouverts dans le domaine nouveau des réseaux multiplexes (liens pondérés) et temporels (liens évolutifs). La France a des atouts majeurs grâce à son excellence en physique statistique mais souffre de barrières institutionnelles au développement de cette interdisciplinarité.

Outre les réseaux complexes, les applications aux sciences humaines comprennent des approches permettant d’interpréter la réalité économique sans passer par l’hypothèse d’équilibre en économie, avec un fort impact économique et politique potentiel.

1.3 La section 02 et ses interfaces

• De part leur nature visant à étudier la dynamique de systèmes complexes et les phénomènes émergents, la physique statistique et les systèmes dynamiques jouent un rôle majeur dans le développement de sciences interdisciplinaires avec la biophysique, l’informatique, les mathématiques, les sciences du climat et les sciences sociales.

Comme nous avons détaillé en Chapitre 4, il existe plusieurs domaines distincts de physique théorique en lien direct avec des développement en biologie, au niveau d’inférence ainsi que de construction des modèles hors d’équilibre. Les liens forts existent aussi entre épidémiologie, informatique, climatologie, économie et sociologie. La turbulence est fortement couplée aux sciences de l’environnement, à la biologie et à l’ingénierie. La physique statistique joue un rôle majeur dans le développement de l’apprentissage automatique. En conséquence, la section 02 a des interfaces avec les sections 05, 06, 07, 10, 11, 17, 19, 37, 41, et 51.

• Il existe un recouvrement avec la section 01 sur la phénoménologie des hautes énergies (physique aux collisionneurs, physique hadronique, astroparticules, cosmologie) et sur la physique nucléaire. Pendant la mandature actuelle, la section 01 a recruté de manière régulière des théoriciens affectés dans des laboratoires IN2P3, et une année des membres de notre section ont participé au Jury de la section 01. Dans le passé les deux sections ont échangé des postes. Nous avons aussi des chercheurs que nous évaluons ensemble. Nous sommes très ouverts et favorables à ces échanges entre l’INP et l’IN2P3. Cependant, la physique théorique des hautes énergies, des astroparticules, et du cosmos, a une composante qui n’est pas liée à l’interprétation de, ou aux calculs pour, une expérience spécifique. Cette composante est plus spéculative, mais elle joue un rôle important pour sa créativité et son dynamisme. Le recrutement au sein de notre section, et l’affectation dans des laboratoires INP sont des éléments clés pour garder cette composante.

• En cosmologie nous avons souvent des candidats en commun avec la section 17. Des considérations similaires valent pour ce cas.

• Les méthodes développées en physique mathématique, au cœur de notre section, ont des applications dans tous les domaines de la physique. En conséquence on compte des interfaces fructueuses avec la physique des particules, la matière condensée et la mécanique statistique ainsi qu’avec la section 41 à l’INSMI voir l’introduction.

• On reçoit des candidatures communes avec la section 03 pour la matière condensée, la 04 pour la technologie quantique, les systèmes optiques et l’interface laser atomes froids, et la 05 pour la matière molle. Dans ces recouvrements nous sommes donc très complémentaires des autres sections. Ce qui démarque nos choix dans les concours est l’approche de théoricien.ne.s spécifique à la 02.

1.4 Sujets émergents

En tant que comité de sélection et d’évaluation des chercheurs nous sommes un véritable observatoire des sujets émergents ainsi que de ceux en déclin ou en transformation.

En physique fondamentale, un des grands résultats scientifiques obtenus pendant notre mandat est, évidemment, l’observation pour la première fois des ondes gravitationnelles, par le biais d’un événement spectaculaire de coalescence entre trous noirs. La communauté de physique théorique française en général et la section 02 en particulier ont joué un rôle important dans cette avancée remarquable. Cela se reflète dans le nombre important de candidats travaillant dans ce domaine et dans nos recrutements.

Nous remarquons la transformation ayant lieu dans le développement des théories au-delà du modèle standard, qui délaissent de plus en plus l’idée de la “naturalité” comme principe guide, pour se focaliser sur une approche purement de théorie effective. L’absence de signature expérimentale claire met en avant les théoricien.ne.s capables de penser en dehors des sentiers battus, et de traduire leurs idées en des propositions d’expériences authentiquement nouvelles – voir fin de Chapitre 1. En fait, sortir des sentiers battus, ou alors pousser au maximum les frontières des techniques “standard”, sont deux caractéristiques récurrentes de la plupart de nos recrutements dans tout le chapitre des hautes énergies.

En physique mathématique nous avons déjà noté la synergie remarquable entre la communauté des systèmes intégrables, la matière condensée et la mécanique statistique sur la dynamique des systèmes quantiques en basse dimension. Ceci est un domaine en pleine explosion dans lequel nous recevons de nombreuses candidatures de niveau exceptionnel et dans lequel nous avons fait plusieurs recrutements. Il faut également noter l’émergence rapide des tenseurs aléatoires comme outil fédérateur aux multiples applications, de la géométrie aléatoire à l’analyse tensorielle de données en composantes principales.

L’étude et le développement de technologies quantiques basées sur l’établissement de cohérence quantique sur les échelles de temps et/où de l’espace au-delà de l’échelle microscopique est une activité majeure en matière condensée depuis dix ans. Cette activité s’est encore accrue depuis le début de notre mandat, catalysée par les investissements considérables dans ce domaine. Cela se traduit par une forte augmentation du nombre des candidats travaillant sur ces aspects tels que l’information quantique, la topologie ou la simulation quantique, ou sur des sujets plus liés aux avancées expérimentales comme l’interface entre matière et lumière ou l’optique quantique non-linéaire.

L’apprentissage automatique ou “machine learning” (ML) est un sujet en pleine explosion. Ces techniques, ainsi que les algorithmes sousjacents, révolutionnent la manière dont la science est réalisée. La contribution de notre section comporte deux volets : les développements conceptuels, comme nous avons vu en Chap. 4, et les applications dans tous les domaines, de la physique au-delà du Modèle Standard à la biophysique en passant par la matière condensée, la turbulence et le climat – voir Chap. 1, 3 et 4 ci-dessus. Le ML est aussi liée aux développements mathématiques, comme par exemple dans ses applications au groupe de renormalisation (RG). Enfin, sur le plan algorithmique, les limites d’applicabilité du ML constituent un domaine de recherche actif, où les méthodes approximatives nourrissent le travail des mathématiciens.

Les applications de la physique statistique, des systèmes dynamiques et de la turbulence à la dynamique du climat et aux systèmes environnementaux (voir Chapitre 4) est un autre sujet émergent où la France est particulièrement bien représentée.

2. SWOT pour la section 02

Pression – Nous avons déjà mentionné dans le texte la très forte pression sur les postes du concours chercheurs, et même pour les promotions, notamment vers DR2 et vers DRCE1. Cette pression peut être vue comme une force de notre section, car elle démontre à la fois l’intérêt des candidats, et elle garantit une grande qualité dans les embauches et les promotions. En même temps, il y a un effet de seuil au-dessus duquel la pression devient une menace : trop souvent, des candidats exceptionnels sont exclus du concours. Notre pression – qui se traduit par exemple en environ 50 candidat.e.s. pour une embauche dans le concours chercheurs CR – est bien au-dessus de ce seuil.

Par ailleurs, fortement couplée à cette pression, l’absence cruelle de postes ouverts à l’université, a des conséquences doublement néfastes : l’absence d’un vrai plan alternatif au CNRS pour une carrière de chercheur.e en France, et même la mise en péril de l’enseignement et de la recherche en physique théorique. Notamment, de plus en plus les doctorants et post-doctorants renoncent à embrasser ce domaine par manque de perspective.

Parité – En section 02 nous sommes très loin de la parité dans le nombre d’hommes et de femmes. Le pourcentage des femmes postulant dans le concours chercheurs est autour de 12 %. Nous remarquons également un faible taux de candidature à tout niveau. Un exemple extrême est celui du concours DR2, avec de l’ordre de 40 candidats et parfois une seule candidate.

Nous sommes pleinement conscients de notre responsabilité dans les recrutements et promotions pour contribuer à redresser la situation. Jusqu’à présent, et grâce à des candidates de niveau scientifique exceptionnel, nous avons eu la chance de pouvoir établir un taux de recrutement et de promotion de femmes plutôt au-dessus de la moyenne de notre section : entre 20 et 25 % dans le concours chercheurs ainsi que dans les promotions vers DR2. En perspective, augmenter la fraction de femmes dans notre section demande d’abord un encouragement aux femmes de tenter l’aventure de chercheuse en physique théorique. Notre section s’engage à œuvrer pour faire passer ce message. Ensuite, l’aide de la Direction du CNRS et de l’INP, en gardant un nombre suffisant de postes d’embauche et de promotions, nous est également indispensable pour lutter contre le découragement. La forte pression sur les postes d’entrants au CNRS et à l’université est particulièrement néfaste pour la parité. Nous avons noté une réduction du nombre de candidates pendant notre mandat et tout indique que ce fait reflète les évolutions dans les centres de formation. Nous observons que les pourcentages de femmes en postdoctorat restent plus grands que le taux de femmes postulant aux concours.

L’évaluation constante des chercheur.e.s pendant leur carrière et la compétition pour les promotions jusqu’à la retraite ajoutent des barrières et des leviers de discrimination additionnelles pour tou.te.s les chercheur.e.s impliqué.e.s dans la vie familiale.

Financements sur projet – La politique générale mise en place depuis quelques décennies privilégie de plus en plus les financements sur projet, notamment à travers l’Agence Nationale de la Recherche (ANR) et le European Research Council (ERC) pour les sciences fondamentales. Concernant les demandes ERC, les sommes d’argent en jeu sont très importantes voire disproportionnées. L’évolution vers ce type de financement rend le paysage financier de la communauté très déséquilibré. En ce sens, l’ANR représente l’instrument de financement naturel pour une grande fraction de la communauté. Malheureusement, on doit déplorer un taux de réussite devenu extrêmement bas, décourageant les chercheurs, et ce en particulier pour les appels blancs. Étant donné ce faible taux de succès, la lourdeur du processus ANR – comparable voire supérieure à une demande ERC – rend cette catégorie de demande doublement difficile.

Il est également important de souligner que, dans la plupart des cas, la recherche en physique théorique n’est pas adaptée à des financements issus de sources privées ou du “Crédit Impôt Recherche”. On note des exceptions comme par exemple certaines activités de technologies quantiques ou les études des systèmes complexes, mais la majeure partie des thèmes de recherche afférents à la section de physique théorique ne peuvent pas être financés autrement que sur fonds publics.

Critères bibiométriques – Que ces critères jouent un rôle de plus en plus important est une évidence. Même si la section reconnait ces critères comme un des multiples aspects de l’évaluation scientifique, elle est convaincue que l’évaluation scientifique est un processus bien plus complexe.

Émergence des grandes structures – La section constate la tendance à la fusion entre organismes de recherche et constate tout particulièrement les difficultés rencontrées par des laboratoires qui se rattachent à des instituts autres que l’INP.

Excellence interdisciplinaire – Nombreuses sont les interfaces (voir 1.3) grâce au périmètre très large de notre section. Néanmoins les recrutements à l’interface sont rendus compliqués puisque nous sommes confrontés à la nécessité de renforcer les disciplines classiques avec un faible nombre de postes à disposition.

3. Évolution de l’organisation et des pratiques de la recherche

Financements sur projet – L’évolution de la politique et la dotation des financements par projets est un enjeu majeur pour la recherche en France et pour la section 02 en particulier. L’accès aux financements de montants modestes permettant de financer des projets naissants sur des durées de temps courtes est la clef de notre mode de fonctionnement. Le maintien des financements récurrents nous semble essentiel à cet égard, de même qu’un processus d’appel à projets à budgets plus faibles suivant un format simplifié et dynamique et, surtout, avec un taux de réussite compatible avec la production scientifique de notre communauté. Nous constatons que la présence d’un ERC peut avoir des conséquences positives pour la communauté ou le laboratoire du lauréat, mais une augmentation de l’importance relative de ce type de financement au détriment d’autres sources à des conséquences négatives très importantes, discutées dans la Sec. 2.

Fonctionnement du Comité National – L’accroissement récent, de 4 à 5 ans, de la durée du mandat du CN est un frein au bon fonctionnement de la commission et risque de nuire à notre communauté. D’abord, une durée de 5 ans n’encourage certainement pas à un tel engagement les chercheur.e.s en évolution de carrière, notamment celles et ceux proches d’une promotion. De plus, une telle durée crée presque inévitablement l’installation de certains biais, dus par exemple à la composition spécifique de la commission. Ces facteurs nuisent à la représentativité et au dynamisme de notre commission, notamment par rapport aux thématiques émergentes. Nous préconisons donc un retour à une durée de 4 ans, comme c’est le cas pour le CNU.

Pression bureaucratique – La bureaucratie ressentie par les chercheurs prend une place qui augmente de plus en plus, au point de devenir souvent prépondérante. Cette évolution, constante depuis longtemps, est nuisible à la recherche en général, et à celle de la section 02 en particulier.

Recherche et changements climatiques – Dans cette ère de prise de conscience des changements climatiques et des multiplications de catastrophes environnementales, l’heure est venue d’agir sur notre mode de fonctionnement. Nous avons toutes et tous un devoir de mettre en cause nos déplacements en avion et voiture et de privilégier le télétravail et les conférences virtuelles. Très rapidement la société développera un regard critique sur notre activité et exemplarité à cet égard. L’avenir environnemental dépendra d’une prise de conscience collective évidement, mais fort probablement le financement de la recherche par des sources publiques en dépendra également.

4. Conclusion

Dans ce monde moderne, la vie, les conditions de travail des chercheur.e.s et même l’activité de recherche dans son ensemble sont mis constamment sous pression et nous avons relevé certains points à cet égard. Mais chercheur.e.s reste un métier de vocation et de passion, un fait qui est incontournable et qui, nous espérons ressort joyeusement des pages de ce rapport. C’est donc au moment de conclure que nous voudrions rendre hommage à tous les chercheurs et enseignant-chercheurs de notre communauté dont les résultats et projets ont nourri ce rapport ainsi qu’aux ITA pour le rôle crucial qu’ils jouent au sein de nos laboratoires. C’est le moment de rappeler qu’au cœur des découvertes et des innovations il y a des femmes et des hommes de talent qui ont dédié leur vie à la recherche, à l’amélioration du savoir, à sa transmission et à sa diffusion. Nous partageons cette passion et ce plaisir de faire la recherche fondamentale et c’est un honneur pour nous de représenter celles et ceux qui font partie de la section 02 du CNRS.