Section 41 Mathématiques et interactions des mathématiques

II. Quelques exemples de progrès récents en mathématiques

La production mathématique, que ce soit à l'échelle nationale ou à l'échelle mondiale est en progression constante. Les lignes qui suivent tentent de donner une idée de cette production et des progrès qu'elle renferme, sans prétendre à l'exhaustivité.

2.1. Probabilités et statistiques

L'étude des phénomènes aléatoires, qui pendant longtemps a reposé principalement sur l'utilisation de l'analyse, a vu ces dernières années, au contact de la physique et de l'informatique, se confirmer une tendance lourde qui fait jouer aux calculs explicites combinatoires et à la géométrie, parfois discrète, un rôle de plus en plus important. C'est ainsi que l'algèbre et la combinatoire font maintenant partie intégrante de l'arsenal des probabilités dans des domaines aussi variés que l'étude des cartes planaires, des marches auto-évitantes, des modèles intégrables en physique statistique et des matrices aléatoires. Illustrons-le maintenant par quelques exemples.

Les marches auto-évitantes interviennent dans de nombreux problèmes physiques, notamment dans la chimie des polymères mais leur étude mathématique est très difficile. Récemment, une avancée majeure de Duminil-Copin et Smirnov a permis de démontrer une conjecture ancienne concernant le comportement asymptotique du nombre de marches auto-évitantes sur le réseau hexagonal lorsque le nombre de pas tend vers l'infini. Leur preuve a nécessité l'introduction d'une nouvelle notion de fonctions analytiques discrètes.

Le champ libre gaussien, objet probabiliste dont l'étude est motivée par la théorie quantique des champs, est de mieux en mieux compris du point de vue géométrique. Les physiciens connaissent depuis longtemps les relations KPZ, reliant les propriétés statistiques de modèles de particules sur des réseaux réguliers et les modèles analogues sur des réseaux aléatoires. Ces relations ont été interprétées mathématiquement grâce aux travaux de Duplantier et Sheffield sur le champ libre gaussien.

Dans un domaine proche, la carte brownienne est un objet probabiliste construit comme limite de cartes planaires aléatoires discrètes dans des travaux fondateurs, notamment de Le Gall et de Miermont, à la suite d'avancées combinatoires reliant cartes planaires et arbres. On espère, à terme, que cet objet pourra être utile dans la modélisation de la gravité quantique.

La théorie des matrices aléatoires a également connu des progrès importants, en particulier sur la structure asymptotique des vecteurs propres de ces matrices en grande dimension, identifiant les phénomènes de délocalisation ou localisation sur certaines composantes.

Les processus déterminantaux sont d'abord apparus en théorie des probabilités dans l'étude du spectre des matrices aléatoires, puis en théorie des représentations des groupes. Très récemment, une généralisation de ces processus a amélioré notre compréhension des équations de Kardar, Parisi et Zhang, qui modélisent la croissance aléatoire d'interfaces. Ces mêmes équations ont également été étudiées d'un point de vue plus analytique par Hairer.

Les exemples précédents relèvent des interactions entre mathématiques et sciences physiques. Les sciences du vivant sont un autre domaine où les probabilités et la statistique jouent depuis longtemps un rôle primordial. Ces dernières années ont vu se développer considérablement ces interactions, les biologistes apprécient en effet les modèles mathématiques. Citons, parmi beaucoup d'autres exemples, la théorie des arbres aléatoires, dont l'origine remonte d'ailleurs à Galton et à la théorie de l'évolution et qui a connu de grands progrès d'un point de vue mathématique, que l'on peut appliquer aux modèles biologiques, par exemple à la reconstruction phylogénétique.

Dans un autre ordre d'idées, la taille des données accessibles et stockables croît constamment, aussi bien en sciences que dans les domaines socio-économiques. On assiste également à l'émergence de données de type nouveau, comme le « graphe du web ». L'analyse de ces données est un défi scientifique important, par essence pluridisciplinaire, nécessitant des mathématiques variées : statistiques, probabilités, géométrie.

2.2. Géométrie et topologie

Des progrès spectaculaires ont eu lieu ces dernières années concernant les variétés de dimension 3. La conjecture de géométrisation de Thurston, prouvée par Perelman en 2002, permet de découper toute variété de dimension 3 en « pièces » élémentaires, chacune étant munie d'une géométrie particulière, parmi 8 possibles ; les questions initiales de classification topologique peuvent alors être analysées géométriquement. L'une des 8 géométries est notoirement plus riche que les autres : celle des variétés modelées sur l'espace hyperbolique réel. Les travaux de Kahn et Markovic et de Agol et Wise, fournissent des informations fondamentales sur la topologie de ces variétés hyperboliques de dimension 3 : une telle variété M contient une surface de genre au moins 2 dont le groupe fondamental s'injecte dans celui de M et possède un revêtement fini qui fibre sur le cercle. Les méthodes employées relèvent de la topologie géométrique, des systèmes dynamiques et de la théorie géométrique des groupes.

Une autre série de conjectures a été progressivement résolue permettant de décrire les variétés de dimension 3 infinies mais de type fini qui sont munies d'une métrique hyperbolique complète ; la topologie de ces variétés est celle de l'intérieur d'une variété compacte à bord et des invariants géométriques définis « au bord » permettent de contrôler les déformations de ces variétés.

Dans le domaine des invariants en topologie de petite dimension, les théories homologiques les plus prometteuses pour l'étude des nœuds sont l'homologie de Khovanov et l'homologie instanton de Floer ; la première avait été introduite comme catégorification du polynôme de Jones, la seconde provient du domaine de la théorie de jauge. Kronheimer et Mrowka ont construit une suite spectrale reliant l'homologie de Khovanov et une variante de l'homologie de Floer. Comme application ils montrent que l'homologie de Khovanov (qui peut être calculée combinatoirement) permet de caractériser le nœud trivial : si un nœud dans la sphère S3 a la même homologie de Khovanov que le nœud trivial, alors c'est un nœud trivial. Cette propriété n'est toujours pas connue pour le polynôme de Jones.

Sur les variétés projectives complexes, l'existence de métriques riemanniennes spéciales, notamment de métriques de Kähler-Einstein, constitue un problème où se rencontrent analyse complexe (résolution d'équations de type Monge-Ampère), géométrie algébrique et géométrie riemannienne. Le théorème de Aubin-Yau permet de construire de telles métriques pour une large classe de variétés. Sur les variétés de type Fano, des obstructions à l'existence de telles métriques ont été progressivement dégagées par Tian, Yau et Donaldson ; les conditions pertinentes peuvent être formulées en termes de « stabilité », une notion qui prend ses racines dans la théorie géométrique des invariants. On sait maintenant que cette stabilité est nécessaire et suffisante et que la métrique de Kähler-Einstein est uniquement déterminée modulo les difféomorphismes holomorphes de la variété.

Le programme de Mori a pour but, partant d'une variété algébrique M, de lui associer une autre variété M0, en général singulière, qui lui est birationnellement équivalente (c'est-à-dire qu'elle peut être obtenue à partir de M par des modifications en codimension ≥1) et qui est la plus simple possible dans cette classe d'équivalence ; on parle du modèle minimal de M. La mise en œuvre de ce programme requiert essentiellement deux étapes : la construction d'une suite de transformations birationnelles élémentaires qui seront appliquées successivement, puis la preuve que cet algorithme produira en temps fini le modèle minimal recherché. Suite aux travaux de Birkar, Cascini, Hacon et McKernan, la première étape fonctionne maintenant en toute généralité, et la seconde sous certaines hypothèses sur la variété de départ (satisfaites dès que celle-ci est de type général). Ceci permet, entre autres choses, de borner le nombre de paramètres dont dépendent les familles de variétés de type général ainsi que la taille de leurs groupes d'automorphismes.

2.3. Géométrie des groupes et dynamique

Étant donné un espace compact X, homogène sous l'action d'un groupe de Lie G et un sous-groupe L de G, on cherche à décrire les sous-ensembles fermés de X qui sont invariants sous l'action de L ; ceci est lié à l'étude des mesures de probabilité sur X qui sont « stationnaires » sous l'action de L et donc à des phénomènes d'équidistribution. Les travaux de Benoist et Quint traitent le cas ou X est le quotient de G par un réseau, sous des hypothèses très faibles sur L. Ils étendent et complètent des travaux antérieurs de Ratner. En particulier, leur résultat sur les marches aléatoires a été utilisé dans le contexte de l'espace des modules de différentielles abéliennes sur les surfaces de Riemann par Eskin et Mirzakhani pour montrer le résultat, impressionnant, énonçant que les mesures ergodiques et invariantes par l'action de SL(2,R) sur cet espace sont « algébriques » (un énoncé semblable à Ratner, mais cette fois dans une situation pas du tout homogène).

Les interactions entre le pendant traditionnel (groupes finis) et les pendants géométriques et ergodiques développés il y a une trentaine d'années sous l'impulsion de Furstenberg, Gromov et Margulis sont également remarquables. Citons notamment les travaux de Nikolov-Segal qui concernent les groupes finis et la topologie des groupes profinis et sont liés à des questions classiques de résolutions d'équations dans les groupes finis. Ceux de Breuillard, Green et Tao qui ont décrit la structure des groupes approximatifs. En partie motivés par des questions liées à la combinatoire additive, leurs résultats ont des conséquences variées concernant la croissance des groupes, le groupe fondamental de certaines variétés riemanniennes, etc. ; leur démonstration utilise de manière cruciale des idées développées par Hrushovski dans des travaux antérieurs (consistant à transformer par une sorte de « passage à la limite » des questions sur les groupes finis en questions sur les groupes de Lie réels).

Les liens entre informatique théorique et mathématiques se sont à nouveau renforcés avec, d'un côté, algorithmique et optimisation combinatoire et, de l'autre, géométrie des espaces de Banach, probabilités, analyse harmonique et géométrie des groupes. Ainsi, la théorie des graphes expanseurs, les estimations de la distorsion que subit un espace métrique lorsqu'on le plonge dans un espace hilbertien, les problèmes de « sparsification », c'est-à-dire d'approximation de matrices par des matrices lacunaires, d'approximation dans les espaces de Banach, ou de recherche opérationnelle ont tous connu des avancées récentes importantes.

Un autre exemple d'interaction fructueuse est fourni par la série de travaux d'Artur Avila sur les opérateurs de Schrödinger discrets. Leur étude est issue de la physique du solide et fournit des opérateurs dont le spectre a des propriétés fractales remarquables (le « papillon de Hofstadter » provient du cas d'un électron cristallin dans un champ magnétique uniforme). Les techniques de systèmes dynamiques et d'analyse développées par Avila et ses collaborateurs ont permis de résoudre plusieurs problèmes importants du domaine et, récemment, de présenter une description globale, « stratifiée », du comportement du spectre en fonction des paramètres physiques.

2.4. Géométrie arithmétique et théorie des nombres

L'un des points saillants de ces quatre dernières années dans le domaine est l'introduction et l'étude par P. Scholze des espaces perfectoïdes. Ils ont été conçus à l'origine comme des outils permettant le transfert de certains résultats connus sur les corps locaux de caractéristique p (comme Fp((t))) aux corps locaux de caractéristique nulle (comme Qp) et le premier succès important de la théorie a précisément consisté en un tel transfert, celui de la conjecture de monodromie-poids de P. Deligne (qui affirme la coïncidence de deux filtrations sur la cohomologie d'une variété algébrique). Mais ils se sont également avérés extrêmement fructueux pour différentes questions liées à la théorie de Hodge p-adique et aux représentations p-adiques des groupes de Galois. Ils ont par exemple permis de prouver une conjecture d'Emerton et Calegari sur la cohomologie des tours de variétés de Shimura p-adiques (les variétés de Shimura sont des espaces de modules dont la cohomologie contient des informations arithmétiques fondamentales, en lien avec le programme de Langlands) ou encore de montrer l'existence de représentations galoisiennes associées à certaines classes de cohomologie sur les espaces symétriques classiques (conjecture de Ash).

En ce qui concerne les variétés de Shimura, de grands progrès ont été accomplis récemment sur une autre question, à savoir la conjecture d'André-Oort, qui prédit que certaines sous-variétés d'une variété de Shimura sont elles-mêmes des variétés de Shimura. Sa preuve finale (sous l'hypothèse de Riemann généralisée) a été annoncée par B. Klingler, E. Ullmo et A. Yafaev. Leurs techniques reposent de façon cruciale sur les travaux de Pila et Wilkie à propos des points rationnels des ensembles définissables dans les structures o-minimales. Ces travaux, qui avaient été utilisés pour établir des cas particuliers de la conjecture d'André-Oort, affirment en gros qu'une partie de Rn définie par des inégalités entre polynômes et fonctions analytiques réelles « non oscillantes » (comme l'exponentielle) qui a suffisamment de points rationnels contient une branche de courbe algébrique.

Venons-en maintenant à la théorie analytique des nombres. Nous allons mentionner trois résultats frappants en la matière, chacun d'eux étant une version affaiblie, mais déjà extrêmement difficile et d'un intérêt majeur, d'une « grande conjecture ». Il y a d'une part le résultat de Y. Zhang, mentionné dans l'introduction, en direction de la conjecture des nombres premiers jumeaux (il existe une infinité de nombres premiers p tels que p + 2 soit premier) : il a prouvé qu'il existe a > 1 et une infinité de nombres premiers p tels que p + a soit premier ; sa preuve fournit une borne non optimale sur a, que le réseau Polymath a permis d'améliorer considérablement.

Il y a ensuite le résultat de H. Helfgott, en direction de la conjecture de Goldbach (tout nombre pair est somme de deux nombres premiers) : il a prouvé sa variante « ternaire », qui assure que tout nombre impair est somme de trois nombres premiers.

Il y a enfin un progrès remarquable en direction de la conjecture de Birch et Swinnerton-Dyer, accompli par Barghava et Shankar qui ont montré qu'une proportion strictement positive de courbes elliptiques sur Q ont à la fois un rang nul et un rang analytique nul (la conjecture de Birch et Swinnerton-Dyer prédit que ces deux rangs sont égaux dans tous les cas).

Nous allons terminer ce tour d'horizon arithmétique en évoquant les travaux que F. Brown a récemment réalisés à propos des valeurs des fonctions zêta (ou multizêta) et des périodes des motifs de Tate mixtes. Il a par exemple démontré que toute valeur d'une fonction multizêta en un n-uplet de nombres entiers positifs est combinaison linéaire rationnelle de valeurs de fonctions multizêta en différents uplets (de tailles variables) dont toutes les coordonnées sont égales à 2 ou à 3 ; ou établi, en partie, un lien conjecturé par Zagier entre les valeurs prises par la fonction zêta d'un corps de nombres sur les entiers et les volumes de certains simplexes hyperboliques.

2.5. Théorie des représentations

Un développement majeur dans ce domaine est la place de plus en plus importante prise par les méthodes de catégorification. Il s'agit, par exemple pour les représentations d'algèbres de Lie, de trouver des catégories sur lesquelles les générateurs de ces algèbres agissent par des foncteurs. Les travaux de Chuang et Rouquier, puis de Khovanov et Lauda ont permis de construire de telles catégorifications pour certaines représentations d'algèbres de Kac-Moody et de leurs analogues quantiques. Ces constructions ont eu d'importantes applications, notamment la résolution d'une conjecture de Broué sur les représentations modulaires du groupe symétrique. Plus récemment, l'introduction de représentations d'algèbres de Kac-Moody dans des catégories de représentations d'algèbres de Hecke a permis de démontrer des conjectures anciennes sur la structure de ces dernières.

Les systèmes de racines sont des configurations particulières de vecteurs dans l'espace, qui sont associées à des groupes portant le nom du géomètre canadien Coxeter. On voit apparaître ces structures dans un grand nombre de domaines des mathématiques et aussi de la physique (par exemple la classification des particules élémentaires). En 1979 Kazhdan et Lusztig ont associé des polynômes remarquables à ces systèmes de racines, qui ont eu de nombreuses applications. Elias et Williamson viennent de résoudre un problème ouvert important en démontrant que tous les coefficients de ces polynômes sont positifs, ce qui n'était connu jusqu'à présent que pour certains d'entre eux. Leur démonstration repose sur une catégorification des algèbres de Hecke, introduite il y a vingt ans par Soergel.

2.6. Théorie de la démonstration et formalisation des mathématiques

La vérification de preuve et l'assistance informatique à la démonstration ont connu récemment un grand succès : G. Gonthier et son équipe ont réussi à formaliser et vérifier intégralement à l'aide du logiciel Coq la preuve du théorème de Feit-Thompson (tout groupe d'ordre impair est résoluble), dont la preuve initiale occupait plus de 250 pages.

Par ailleurs, V. Voevodsky a lancé un programme de refondation des mathématiques, basé sur la théorie homotopique des types, qui a d'ores et déjà donné lieu à la publication d'un ouvrage collectif en libre accès. Ce projet utilise des idées venues de la topologie algébrique (théorie de l'homotopie) pour construire un formalisme plus proche de l'intuition que celui traditionnellement utilisé par les mathématiciens, et qui semble de surcroît particulièrement bien adapté à l'implémentation et à la certification de preuve ; son axiomatique a par exemple été intégrée aux logiciels Coq et Agda.

2.7. Analyse, modélisation

L'analyse des équations aux dérivées partielles, l'analyse numérique, le calcul scientifique et l'optimisation sont en interaction avec un grand nombre d'autres domaines des mathématiques, avec les autres disciplines scientifiques (notamment la physique, la chimie, la mécanique et les sciences du vivant) ainsi qu'avec l'industrie.

Les équations de la relativité générale posent depuis leur introduction par Einstein des problèmes théoriques fondamentaux aux mathématiciens. Comme il existe très peu de solutions explicites de ces équations, les mathématiciens s'attachent à montrer l'existence de solutions dites « faibles », qui ont un sens physique et à décrire leur comportement. La « conjecture L2 », démontrée récemment par S. Klainerman, I. Rodnianski et J. Szeftel, affirme l'existence de telles solutions des équations d'Einstein. La preuve utilise des techniques très poussées d'analyse des équations aux dérivées partielles, mais aussi de façon fondamentale les propriétés géométriques intrinsèques du modèle.

Dans le vaste cadre du 6e problème de Hilbert, le passage de l'échelle microscopique à l'échelle macroscopique consiste à comprendre le comportement global d'un gaz à partir du comportement individuel de chacune de ses molécules. Dans ce domaine, l'école mathématique française continue de s'illustrer dans la justification mathématique de la convergence des équations de la mécanique classique vers l'équation de Boltzmann et les équations de la mécanique des fluides. Les progrès majeurs les plus récents permettent enfin de justifier le passage à la limite sur des intervalles de temps pertinents physiquement. Ces travaux comportent une forte composante aléatoire et proposent une interprétation du passage de modèles réversibles en temps à des modèles irréversibles.

Dans le domaine voisin des équations de la mécanique des fluides, toujours très actif mathématiquement, l'étude des phénomènes d'oscillation a connu des avancées notables. La conjecture d'Onsager, une question majeure sur la régularité minimale des solutions faibles pertinentes pour l'équation d'Euler, est en voie de résolution.

La physique des ondes est la source de nombreux modèles hamiltoniens non linéaires. Les progrès ont été spectaculaires sur le problème de Cauchy (preuve théorique d'existence et d'unicité de solutions locales) dans les années 1990-2000. À l'heure actuelle, les interactions récentes avec les probabilités (randomisation des données initiales, prise en compte de terme de bruit dans les équations) et les systèmes dynamiques (théorèmes KAM et Nekhoroshev) ouvrent de nouvelles perspectives. La théorie qualitative en temps grand est également l'objet d'intenses recherches. Citons un exemple marquant en théorie des solitons (un soliton est une solution stationnaire « stable » en un certain sens) : Duyckaerts, Kenig et Merle ont démontré dans le cas particulier de l'équation des ondes semi-linéaire critique la « conjecture de décomposition en solitons » : toute solution globale d'énergie finie se décompose asymptotiquement en temps grand en une somme finie de solitons et une partie qui a un comportement purement linéaire.

Le domaine des problèmes inverses, de l'imagerie et du contrôle optimal a connu ces dernières années des percées remarquables, sur le plan de l'analyse mathématique, du développement de nouvelles méthodes, ainsi que de l'élargissement des possibilités d'applications pratiques. Les objectifs généraux consistent à combiner et à manipuler des ondes afin d'obtenir une image avec la meilleure résolution possible, ou au contraire à chercher à rendre des objets invisibles (invisibilité électromagnétique). En imagerie médicale, une nouvelle méthode consiste à combiner au moins deux types d'ondes (ondes sonores et ondes électromagnétiques) pour réaliser des images plus résolues. Signalons également que l'analyse mathématique du bruit sismique permet maintenant d'améliorer notablement la cartographie des structures géologiques souterraines et d'étudier, pour la première fois, l'évolution de ces structures au cours du temps.

La modélisation en sciences du vivant est en plein essor, à l'interface des équations cinétiques, de systèmes d'équations paraboliques, avec notamment une certaine clarification des modèles pertinents à étudier et de nombreuses questions sur le comportement qualitatif des solutions de ces modèles. En accord avec les incertitudes de modélisation, il devient de plus en plus réaliste d'incorporer des termes stochastiques dans les modèles issus de la biologie.

L'implémentation des méthodes numériques développées nécessite aujourd'hui de grosses ressources informatiques. Toutefois, la performance des processeurs progresse de plus en plus lentement. L'augmentation de la puissance de calcul repose désormais sur le développement du parallélisme et du calcul haute performance. En conséquence, le parallélisme est aujourd'hui au cœur du développement de nouvelles techniques d'analyse numérique et de calcul scientifique, souvent auparavant de nature séquentielle.

Les progrès sont continus dans le domaine du calcul scientifique et de la modélisation, qui a littéralement envahi les bureaux d'études, remplaçant très largement dans certains secteurs toutes les autres méthodes de conception, même pour des réalisations techniques extrêmement complexes, comme dans l'aéronautique. En optimisation, on note la part importante prise par la modélisation de l'aléatoire, en particulier sous l'impulsion des industriels, confrontés à l'incertitude dans la gestion de leur production, par exemple dans la distribution de l'énergie.