Section 05 Matière condensée : organisation et dynamique

Extrait de la déclaration adoptée par le Comité national de la recherche scientifique réuni en session plénière extraordinaire le 11 juin 2014

La recherche est indispensable au développement des connaissances, au dynamisme économique ainsi qu'à l'entretien de l'esprit critique et démocratique. La pérennité des emplois scientifiques est indispensable à la liberté et la fécondité de la recherche. Le Comité national de la recherche scientifique rassemble tous les personnels de la recherche publique (chercheurs, enseignants-chercheurs, ingénieurs et techniciens). Ses membres, réunis en session plénière extraordinaire, demandent de toute urgence un plan pluriannuel ambitieux pour l'emploi scientifique. Ils affirment que la réduction continue de l'emploi scientifique est le résultat de choix politiques et non une conséquence de la conjoncture économique.

L'emploi scientifique est l'investissement d'avenir par excellence

Conserver en l'état le budget de l'enseignement supérieur et de la recherche revient à prolonger son déclin. Stabiliser les effectifs ne suffirait pas non plus à redynamiser la recherche : il faut envoyer un signe fort aux jeunes qui intègrent aujourd'hui l'enseignement supérieur en leur donnant les moyens et l'envie de faire de la recherche. On ne peut pas sacrifier les milliers de jeunes sans statut qui font la recherche d'aujourd'hui. Il faut de toute urgence résorber la précarité. Cela suppose la création, sur plusieurs années, de plusieurs milliers de postes supplémentaires dans le service public ainsi qu'une vraie politique d'incitation à l'emploi des docteurs dans le secteur privé, notamment industriel.

Composition de la section

Élisabeth Lemaire (présidente de section) ; Hervé Henry (secrétaire scientifique) ; Claude Arnold ; Marie-France Beaufort ; Loïc Bertrand ; Xavier Blase ; Christine Boeglin ; Jérôme Colin ; Jean-Marc Di Meglio ; Michel Drouet ; Jean-Chistophe Geminard ; Alessio Guarino ; Martin Hytch ; Marie-Agélique Languille ; Pierre Levitz ; Philippe Pareige ; Nicolas Rougemaille ; Pascal Ruello ; Arnaud Tourin ; Annie Viallat ; Bénédicte Warot.

Résumé

Dans ce document, les 21 membres de la section 05 tentent de faire un portrait de la recherche ; un portrait sans doute impressionniste, peut-être même pointilliste, où apparaît l'extraordinaire richesse des matériaux, des questions posées et des moyens mis en œuvre pour y répondre. Nous balayons à grands traits les problèmes actuels de la matière condensée aux petites échelles, de la matière divisée et de la matière molle et de l'interface Physique-Biologie. Ces différents domaines qui peuvent sembler assez disjoints apparaissent pourtant souvent connectés et montrent une réelle unité dans la nature des questions posées et dans la méthodologie employée pour y répondre. Nous nous sommes également attachés à décrire les méthodes et les outils expérimentaux, numériques et théoriques qui sont utilisés.

Introduction

La section 05 a connu au cours des dernières décennies un extraordinaire déploiement thématique. D'abord centrée sur la cristallographie, elle s'est ouverte à l'étude de la structure et des propriétés de matériaux extrêmement variés dans divers états (cristallin, quasi-cristallin, amorphe ou liquide) et sous différentes formes (massifs surfaces, couches minces, multicouches, milieux divisés ou poreux, nanoparticules, agrégats, assemblages moléculaires, et même molécule isolée). Cette matière peut être étudiée en conditions normales mais elle peut aussi être soumise à des conditions extrêmes de confinement, de température, de pression ou d'irradiation ; elle peut être au repos ou soumise à une déformation ou à un écoulement. Ce large éventail de matériaux et de conditions conduit à une grande diversité des échelles spatiales et temporelles caractéristiques et amène le physicien à utiliser des outils variés, expérimentaux allant des expériences de coin de table à l'utilisation de Grands Instruments, numériques et théoriques. Il est illusoire de vouloir dépeindre toute cette richesse en quelques pages d'autant que le paysage thématique de la section est encore rehaussé par ses interfaces avec la biologie, les géosciences, la chimie, la mécanique et le génie des procédés.

Ainsi, ce rapport de conjoncture ne saurait être exhaustif. L'état de la recherche y sera décrit au travers du filtre des compétences de ses vingt-et-un contributeurs qui ont tenté de dégager quelques points saillants et quelques tendances parmi les plus significatifs.

Nous avons choisi de structurer ce rapport autour de quatre parties. Les trois premières s'intéressent aux champs thématiques de la section que nous avons regroupés sous les intitulés de « Matière condensée aux petites échelles », « Matière divisée, matière molle » et « Interface Physique Biologie ». La dernière section s'attache à décrire les outils expérimentaux, numériques et théoriques utilisés ainsi que leurs développements.

Avant de dresser ce panorama, nous nous autorisons quelques remarques sur notre système de recherche et ses évolutions récentes.

I. Préambule : quelques éléments du contexte de la recherche en France et au CNRS

A. Les moyens de la recherche – la situation de l'emploi

1. Emploi scientifique

Le Conseil scientifique du CNRS a diffusé récemment un document sur la situation de l'emploi scientifique au CNRS et de ses conséquences pour la recherche et l'enseignement supérieur. Pour peser dans le débat public sur l'emploi scientifique, une session plénière du Comité national de la recherche scientifique s'est tenue le 11 juin 2014. Elle a conduit à la rédaction d'un texte, « Propositions sur l'emploi scientifique du Comité National de la recherche scientifique ». Si une politique volontariste n'est pas mise en place immédiatement, les perspectives de l'emploi scientifique seront catastrophiques. D'ores et déjà le nombre de postes mis au concours a subi une baisse alarmante : entre 2010 et 2014, le nombre de chercheurs recrutés a baissé de 25 % celui des « ingénieurs, cadres et techniciens » de 45 % !

La répartition hommes/femmes parmi les chercheurs de la section 05 est assez déséquilibrée (25 % de femmes en 2012) ; et ce déséquilibre est d'autant plus prononcé que l'on monte dans les grades (31 % de femmes parmi les CR, 19 % parmi les DR2 et seulement 13 % parmi les DR1). Il faut saluer l'effort fait par le CNRS pour renverser cette situation avec la création d'une mission pour la place des femmes et une action soutenue de sensibilisation des sections pour agir en faveur de l'égalité professionnelle.

2. Évolution du financement de la recherche

En 2010, nos prédécesseurs notaient déjà : « Les changements importants apparus dès 2005 dans le financement de la recherche ont des répercussions non négligeables sur l'organisation de la recherche et les laboratoires. En particulier si l'ANR a effectivement permis de développer de nouveaux projets on peut s'interroger sur les conséquences sur l'organisation des laboratoires en interne puisque le financement d'équipe est privilégié. Il semble important qu'une partie du ``préciput'' revienne aux laboratoires ». Depuis lors rien a changé, si ce n'est le taux de succès aux appels d'offre ANR qui n'a cessé de décroître pour atteindre le chiffre de 10 % en 2013 et 8,4 % en 2014. Ces taux de succès très faibles affectent le moral et l'activité des chercheurs et les départs vers l'industrie ou l'étranger sont de plus en plus nombreux. Le financement des équipes devient indépendant de la politique scientifique que tentent de mettre en place les laboratoires, ce qui soulève des difficultés qui maintenant ne sont plus hypothétiques mais clairement avérées. Enfin, les nouveaux appels d'offre de l'ANR s'articulant autour de défis sociétaux identifiés dans le cadre de la préparation du programme-cadre de recherche et d'innovation européen, « Horizon 2020 », on peut, malgré les engagements de l'ANR et du ministère, s'interroger sur la part de financement qui restera alloué à la recherche fondamentale.

3. L'évaluation de la recherche

Nos prédécesseurs soulignaient également « les répercussions néfastes de la création de l'AERES sur le bon fonctionnement du Comité National ». D'une part, le Comité National se voit privé de ses prérogatives antérieures d'évaluation des Unités de Recherche, son rôle étant désormais réduit à prononcer un avis de pertinence sur l'association d'une unité au CNRS. D'autre part, les sections sont contraintes à évaluer l'activité des chercheurs en dehors du contexte de leur laboratoire, ce qui accroît la difficulté de l'évaluation et risque d'en abaisser la qualité. Le Comité National n'a eu de cesse de demander à être associé de façon étroite à l'évaluation des laboratoires Alors que l'AERES est en passe d'être remplacée par le HCERES, le rôle affaibli du Comité National dans l'évaluation des unités n'a pas été renforcé.

Aucun changement non plus n'est intervenu dans la représentation des personnels techniques qui dans le fonctionnement du nouveau HCERES, comme dans celui de l'ancienne AERES, ne sont pas systématiquement intégrés dans les comités de visite. Au mieux et bien souvent grâce aux Instituts du CNRS, sans doute conscients du rôle central joué par les ITA dans les laboratoires, les élus C ne participent aux comités de visite qu'en tant qu'observateurs extérieurs, ce qui les empêche d'assister aux réunions à huis clos entre direction et comité de visite et affaiblit leur rôle. Les ITA représentent aujourd'hui la moitié des personnels statutaires du CNRS et leur rôle, complémentaire à celui des chercheurs, est essentiel au fonctionnement des laboratoires et de l'organisme. Il est donc indispensable que leur opinion puisse s'exprimer et être prise en compte dans toutes les instances du CNRS, au même titre que celle de tous les acteurs de la recherche.

B. Régionalisation de la recherche

1. Les initiatives d'excellences (IDEX)

Sur le site de l'Enseignement Supérieur et Recherche on peut lire dans la définition de l'initiative d'excellence : « Dans une logique de territoire les IDEX réunissent des établissements déjà reconnus pour leur excellence scientifique. Ils doivent assurer leur visibilité et leur attractivité au niveau international et avoir un partenariat étroit avec leur environnement économique ».

On compte actuellement huit initiatives d'excellence, dont quatre en Île-de-France. Le principe des IDEX a créé une rupture de l'égalité territoriale et des espaces privilégiés de la recherche et de l'enseignement supérieur.

2. Les communautés d'universités et d'établissements (COMUE)

La loi ESR contient des dispositions permettant la création de nouvelles structures dans un territoire académique ou inter-académique. Celles-ci pourront voir le jour soit par la création d'un nouvel établissement d'enseignement supérieur obtenu par la fusion d'établissements, soit par un regroupement qui peut prendre la forme d'une communauté d'universités et d'établissements (COMUE) soit enfin par une association d'établissements ou d'organismes publics ou privés.

Un seul contrat pluriannuel d'établissement liera le ministère et les établissements ainsi regroupés pour arriver à terme à une trentaine de contrats. Ces contrats pluriannuels associeront également la région et/ou les collectivités locales. On voit ainsi apparaître le poids grandissant des collectivités territoriales dans les orientations scientifiques ; l'articulation entre cette politique de site et une politique nationale de la recherche scientifique, par exemple incarnée par le CNRS, suscite de nombreuses questions. Par ailleurs, ces COMUEs ajoutent une couche administrative entraînant une complexification du système et un surcoût. Il est aussi à craindre qu'elles conduisent à l'avenir à des fusions pour créer des « monstres » (pour la COMUE USPC, par exemple, une université avec 120 000 étudiants !).

II. Matière condensée aux petites échelles

Une part importante des recherches menées au sein de la section 05 vise à établir les liens entre les propriétés physiques (mécanique, électrique, magnétique, optique...) des matériaux et leur structure à différentes échelles. Les propriétés sont principalement liées à la présence de défauts, d'espèces chimiques ajoutées, d'interfaces, de différentes phases. Il est donc nécessaire d'explorer les matériaux à différentes échelles pour comprendre les effets d'une lacune, d'un interstitiel, d'un dopant, d'une impureté, d'une dislocation, d'un joint de grain, d'une interface, d'un mélange de phases.

A. Structure, excitations élémentaires

1. Structure

La connaissance de l'arrangement atomique est une des étapes premières dans l'étude d'un milieu dense. Au-delà de la mesure même des distances inter-atomiques, de la détermination des symétries locales et/ou à grande échelle, ces informations structurales permettent de comprendre/déterminer les potentiels interatomiques (harmonicité, anharmonicité) à l'équilibre thermodynamique ou lors d'une transition de phase. Les techniques de diffraction (X, électrons, neutrons) sur des matériaux massifs et sur des volumes plus réduits comme les couches minces sont très bien implantées aussi bien au niveau des laboratoires qu'au niveau des grands instruments. Les méthodes d'analyse (affinement de structure) sont incontestablement de mieux en mieux établies : établissement des cartographies des densités électroniques et de spin en couplant par exemple les techniques de diffraction des rayons X et neutrons polarisés, en étroite complémentarité avec les méthodes ab initio qui permettent de reproduire voire de prédire des structures. Il demeure cependant de nombreuses situations délicates avec des ordres cachés (magnétiques, électriques...) et des systèmes cristallographiques de dimension supérieure à 3 : il s'agit notamment des systèmes incommensurables (alliages intermétalliques, systèmes hybrides à intercalations...), ainsi que des matériaux à propriétés fonctionnelles (multiferroïques, matériaux à ondes de densité de charges, supra-conducteurs). La découverte de nouveaux états électroniques, appelés isolants topologiques, amènera certainement les expérimentateurs à rechercher des anomalies structurales dans ces systèmes complexes dont les propriétés remarquables ne sont encore que partiellement comprises. La cartographie des défauts (ponctuels ou étendus, corrélés, non-corrélés), notamment via l'étude de la diffusion diffuse, demeure de même un travail difficile mais important pour la science des matériaux. Enfin, la compréhension de l'arrangement atomique dans des solides présentant des transitions complexes, c'est à dire vitreuses, amorphe-amorphe, mobilise toujours la communauté avec des questions fondamentales liées par exemple à la compréhension de certaines transitions de phases liquide-liquide pour l'eau dans sa phase surfondue.

Les études structurales en environnement contrôlé constituent un enjeu toujours aussi important. Les extensions vers les plus hautes températures (flashs laser intenses désormais accessibles sur Laser XFEL) et les très fortes pressions (> 100 GPa) permettent d'explorer des régions de diagrammes de phases inconnues où les fortes variations des potentiels interatomiques induites révèlent des états de la matière souvent exotiques et particulièrement intéressants pour la géologie et la planétologie. La diminution de la taille des objets ou bien le fort confinement des fonctionnalités des matériaux avec des dimensions 0D, 1D (point-puits quantiques, nanofils) ou 2D conduit par ailleurs à se poser de nombreuses questions sur la validité des lois physiques à ces échelles (organisation, longueur de cohérence, mécanique des nano-objets, élasticité et continuité/discontinuité des propriétés aux interfaces...) et l'inspection des paramètres structuraux s'avère une étape incontournable.

2. Phonons et dynamique vibrationnelle

L'étude de la dynamique de réseau (phonons) est une activité historique de la section 05 qui implique de s'intéresser au couplage entre différents degrés de liberté (électrons, spins...) pour comprendre les propriétés fondamentales des matériaux à fort potentiels applicatifs (solides corrélés, nanomatériaux...). L'étude de la dynamique de réseau vise à caractériser et à comprendre les modes de vibration dans les solides qui déterminent les propriétés fondamentales d'un solide (capacité calorifique, conductivité thermique, rayonnement thermique, thermoélectricité...) et constituent des témoins très sensibles de toute évolution de phase (transition de phases, modes mous...). La diffusion inélastique des neutrons réalisée sur des monocristaux permet de déterminer les courbes de dispersion des phonons et d'explorer la zone de Brillouin. La brillance et la très bonne résolution en énergie des lignes de diffusion inélastique des rayons X permettent depuis quelques années d'explorer également avec un bon niveau de détails la zone de Brillouin. Les spectroscopies Brillouin (de plus en plus rares), Raman et IR demeurent des outils de choix pour les laboratoires pour aborder la physique des phonons et ce aussi bien dans les solides ordonnés que désordonnés. L'orientation claire de nombreuses recherches vers des systèmes de taille réduite (nanoparticules, couches minces...) pose de nombreuses questions quant à la dynamique vibrationnelle ; en raison du très faible nombre d'atomes (parfois 100 atomes par nanoparticule), les lois macroscopiques de la dynamique de réseau sont questionnées et s'en suivent des comportements « anormaux » de grandeurs physiques telles que la conductivité thermique ou le temps de vie des phonons puisqu'à ces échelles le libre parcours moyen des phonons est comparable voire plus grand que la taille ou les échelles sondées. Les spectroscopies traditionnelles (diffusion Brillouin et Raman, spectroscopie IR) permettent d'aborder en partie ces questions (élasticité, anharmonicité, transition de phases). L'avènement des sources de lumière ultra-brèves depuis 25 ans pour les expériences d'optique de laboratoire (laser optique femtoseconde) et depuis peu pour les sources électroniques résolues en temps (microscopie électronique) et des sources X pulsées (BESSY, XFEL, SOLEIL), a ouvert un nouveau regard sur la dynamique vibrationnelle. Grâce à un large spectre en énergie des photons (du meV pour les sources THz à plusieurs keV pour les sources X pulsées), de nombreuses dynamiques peuvent être sondées, et en particulier la dynamique de réseau. La grande différence avec les techniques traditionnelles est que ces nouvelles techniques reposent sur la génération de phonons cohérents (déclenchée optiquement) alors que les autres font intervenir l'interaction entre la lumière et les phonons incohérents (bain thermique ambiant). Ceci permet d'avoir, en général, une certaine sélectivité sur les phonons étudiés (phonons acoustiques et optiques). Aussi, il devient possible de mesurer directement le temps de vie des phonons acoustiques et optiques (anharmonicité de réseau, temps de vol de phonons, thermique résolue en temps), les temps de couplage électron-phonon, les processus de collision de phonons avec les interfaces... L'étude de cette dynamique peut désormais être menée avec des niveaux d'excitation optique variables allant de la perturbation d'un système (faible écart à l'équilibre thermodynamique, processus réversible) à une forte perturbation (transitions de phases photoinduites, ablation...). Ainsi, la dynamique vibrationnelle de nouveaux états hors équilibre, jamais étudiée ni observée, devient accessible aux temps courts.

B. Surfaces, interfaces et nanostructures

L'engouement actuel pour les nanosciences donne plus que jamais une place importante à la physique des surfaces, interfaces et des systèmes nanostructurés. En particulier, l'intérêt pour la nanophysique prend tout son sens lorsque des effets nouveaux qui n'ont pas nécessairement d'équivalent dans les systèmes massifs correspondants, apparaissent aux petites échelles. Les domaines concernés sont très variés et vont de l'optique au magnétisme en passant par la catalyse et les propriétés mécaniques des solides. Les nano-objets étudiés sont également divers et concernent aussi bien les nanoparticules auto-organisées déposées sur des surfaces cristallines ou enrobées dans des matrices, que les nano-tubes et nano-fils, ou les interfaces rencontrées dans les matériaux composites et les couches minces ou dans les hétérostructures semi-conductrices, métalliques, d'oxydes ou hybrides.

Dans cette partie, sont présentés de manière non exhaustive, quelques systèmes d'étude, nanostructurés et/ou de basse dimensionnalité, sur lesquels travaillent des chercheurs de la section 05.

1. Nanoparticules bimétalliques

Depuis une quinzaine d'années, les études concernant les nanoparticules bimétalliques se sont largement répandues. L'association de deux métaux au sein d'une même particule de taille nanométrique permet d'étendre considérablement les propriétés de ces systèmes, grâce notamment à une diversité structurale couplée à des effets d'ordre chimique et de ségrégation superficielle. Par comparaison avec les alliages métalliques massifs, le rapport élevé dans les nanoparticules du nombre d'atomes de surface par rapport à celui de cœur fait parfois apparaître des phases nouvelles. Ainsi, l'étude de diagrammes de phase de nano-alliages, où la taille du système devient un paramètre ajustable, représente actuellement un enjeu important dans le domaine des nanosciences. Les recherches menées sur ce thème visent souvent à comprendre les mécanismes mis en jeu lors de la croissance des nanoparticules bimétalliques, et à corréler leurs propriétés structurales, avec leurs propriétés physiques et/ou chimiques en fonction de leur taille.

Conjointement à l'étude de ces effets de taille et de structure, on trouve parmi les nouvelles orientations, les problèmes de cinétique de croissance, de mécanismes de diffusion au sein des nanoparticules, et donc de cinétique de mise en ordre chimique ou de ségrégation. De nouvelles directions de recherche autour des systèmes hybrides (métal-semiconducteur, métal-oxyde), des alliages à changement de phase et des nanofils d'alliages, se développent actuellement.

2. Nanostructures semi-conductrices

L'élaboration de nanofils semi-conducteurs est une problématique relativement récente en nanosciences qui est motivée à la fois par les retombées potentielles pour les applications (notamment pour des questions d'intégration 3D) et par les perspectives qu'ils ouvrent en physique fondamentale (fermions de Majorana, sources de photons uniques, bits quantiques). Par ailleurs, ces nanofils permettent de réaliser des combinaisons de semi-conducteurs impossibles autrement, en exploitant notamment leur caractère unidimensionnel (leur diamètre peut être nanométrique alors que leur longueur peut varier de quelques micromètres à plusieurs millimètres). En effet, du point de vue de la croissance, la très petite section transversale que peuvent avoir ces nanofils est idéale pour libérer élastiquement les contraintes sur leurs parois latérales, limitant ainsi la formation de défauts liés à la relaxation plastique.

Les nanofils croissent généralement à partir d'un catalyseur métallique de taille nanométrique par la méthode vapeur-liquide-solide. Une caractéristique de cette méthode de croissance est qu'il est possible de modifier le matériau ou le dopage le long de l'axe du nanofil en changeant la phase gazeuse. On peut alors créer des jonctions complexes de matériaux/dopage le long de l'axe du nanofil ou de manière radiale. Récemment, les nanofils semi-conducteurs ont permis de faire émerger de nouveaux concepts tels les super-réseaux à plusieurs phases cristallines ou les hétérostructures IV/III-V.

3. Systèmes 2D et lamellaires

Les recherches sur les cristaux bidimensionnels (2D), initiées en 2004-2005 avec l'étude du graphène, se sont considérablement diversifiées ces dernières années. Cette famille de matériaux s'est enrichie de nouveaux membres, parfois bien connus sous leur forme épaisse, comme le nitrure de bore, les dichalcogénures (par exemple, MoS2, MoSe2, WSe2), l'allotrope noir du phosphore, le silicène, ou les oxydes. Ces matériaux présentent des propriétés, souvent liées à la topologie de leur structure de bande électronique et phononique, qualitativement différentes de celles de leurs équivalents tridimensionnels. Leur étude fine a révélé des effets remarquables, par exemple liés à des transitions de phases quantiques à deux dimensions, ou à l'optoélectronique dite de vallée, qui exploite une sélectivité en vecteur d'onde de l'émission/absorption de photons.

On assiste à un effort soutenu orienté vers la maîtrise de la préparation de ces matériaux et leur utilisation dans des architectures complexes, notamment des systèmes hybrides (en les combinant avec des nanoparticules, par exemple) et des hétérostructures (empilements de matériaux 2D). À ce titre, des méthodes bottom-up sont activement explorées, en remplacement des méthodes reposant sur l'exfoliation mécanique de matériaux massifs. De nouveaux concepts, par exemple d'hétéroépitaxie à des interfaces unidimensionnelles émergent. Des notions bien connues, notamment concernant la commensurabilité/incommensurabilité aux interfaces, sont remises au goût du jour et trouvent de nouvelles implications dans la perspective d'une ingénierie des propriétés électroniques. Ces efforts en science des matériaux accompagnent une tendance générale, qui consiste à enrichir les propriétés des matériaux 2D, soit en induisant de nouvelles propriétés par effets de proximité, soit en manipulant la topologie de la structure de bande électronique à l'aide de potentiels périodiques, d'adsorbats, etc. Les possibilités offertes par les interfaces entre ces matériaux, qui pourraient accueillir de nouveaux états électroniques, sont maintenant explorées.

L'étude des propriétés de ces matériaux fait appel à un spectre très large de caractérisations, des mesures de transport électronique, aux spectroscopies optiques, en passant par les microscopies (électroniques, sondes locales), et les sondes synchrotron (diffraction, spectroscopie), jusqu'aux simulations numériques avancées (en théorie de la fonctionnelle de la densité, incluant notamment les interactions dispersives).

4. Systèmes moléculaires

L'électronique moléculaire s'est fortement développée au cours de ces dernières dix années grâce notamment aux techniques de sonde locale comme la microscopie tunnel (STM). La spectroscopie STS ainsi que la démocratisation des instruments commerciaux fonctionnant à basse température (∼ 4K) permettent de réaliser des études originales sur des molécules uniques ou des assemblées de molécules déposées sur des surfaces métalliques ou isolantes. Parmi les différentes études menées jusqu'à présent, le magnétisme occupe une place importante : le spin de la molécule qui se couple à l'aimantation de la pointe STM permet d'appréhender une physique riche et de comprendre comment la molécule se couple à son environnement, qu'elle soit en contact avec un substrat magnétique ou non, ou de relier ses propriétés à la présence éventuelle de défauts de surface et à sa proximité avec d'autres molécules. Les études en lien avec les propriétés électroniques telles que les mesures de conductance électrique entre molécule et électrode (pointe STM) occupent également une place importante. L'intérêt majeur est ici de pouvoir déterminer les propriétés d'une molécule unique pour laquelle les effets de dispersion de taille sont absents. Les molécules de C60, les molécules organiques Cophthalocyanine (CoPc), les molécules aimants ou photomagnétiques, les commutateurs moléculaires, et les feuillets de graphène suspendus ou étirés par manipulation du contact pointe-objet sont quelques exemples de systèmes étudiés actuellement.

Enfin, effectuer des observations à tempé-rature ambiante, ce qui, par exemple, est essentiel pour les systèmes biologiques (cryofixés en général) reste un défi majeur.

5. Autres nano-systèmes
Agrégats

L'élaboration de matériaux originaux par assemblage d'agrégats est une voie prometteuse pour obtenir des couches minces nanostructurées qui gardent une mémoire de la structure et des propriétés des agrégats libres, intermédiaires entre celles des amorphes et celles des cristaux. Des matériaux covalents nouveaux ont ainsi été préparés à partir des phases cage existant à l'état gazeux. La mise en réseau bidimensionnel d'agrégats supportés reste un défi actuel.

Phases en films minces

Des travaux innovants sont impulsés par les progrès des microscopies en champ proche et des techniques de diffraction sur les alliages de surface (interface) et les films minces, seuls ou en multicouches. Le jeu entre thermodynamique et cinétique, et la variété des effets de support permettent d'obtenir de nombreuses structures et/ou compositions qui n'existent pas dans les phases volumiques. Un renouveau de ces problématiques vient aussi de ce que les matériaux étudiés changent. À coté des interfaces entre métaux, semi-conducteurs et oxydes, un domaine en pleine évolution est celui de l'interaction entre surfaces et molécules organiques ou systèmes biologiques.

6. Des surfaces aux nanostructures
Auto-organisation

Traditionnellement, l'élaboration de nanostructures passe par le dépôt de films minces et leur structuration latérale par des techniques de lithographie. De nombreux travaux se sont attachés à trouver des méthodes d'élaboration alternatives, fondées sur l'auto-organisation naturelle (par exemple, à partir de reconstructions de surfaces) ou artificielle (par pré-adsorption par exemple). Le cas des reconstructions est particulièrement illustratif du passage de l'étude du phénomène physique à son utilisation pour la nano-structuration de surfaces. Ainsi, la reconstruction de surface obtenue à partir de marches atomiques, de surfaces vicinales ou des moirés observés entre autres sur une couche de graphène déposée sur métal, permet d'utiliser ces surfaces comme gabarit pour obtenir des sites de croissance privilégiés. Au delà de la compréhension des phénomènes de croissance et d'auto-organisation, le lien entre nano-structuration et propriétés physiques et chimiques, est un sujet toujours actuel. Parmi quelques travaux récents, on peut citer l'étude des effets de couplage dipolaire dans les réseaux de nano-plots magnétiques, l'influence des corrélations spatiales des boites quantiques dans les modes dits « de galerie » de nano-disques à base de semi-conducteurs, ou les modifications des propriétés élastiques et plastiques induites par la mise en ordre d'inclusions de taille nanométrique au sein d'un film mince.

Outils d'élaboration

Les outils d'élaboration des films minces et ultra-minces, souvent à la base des nano-structures, ont bien évolué. L'épitaxie par jet moléculaire permet par exemple une gradation très précise des compositions qui permet de contrôler les niveaux de contrainte dans les hétéro-structures tout en améliorant la qualité cristalline, même si les dislocations restent encore un réel problème dans nombre de systèmes. Les techniques utilisant les faisceaux d'ions, au même titre que la chimie douce, font aujourd'hui partie de la panoplie alternative d'élaboration de matériaux nano-structurés en films minces ou en îlots disséminés en surface.

Études in operando

L'étude des surfaces et des nanostructures n'est plus confinée aux systèmes sous vide et ultra-vide. Le développement des techniques expérimentales permet aujourd'hui des études en condition de fonctionnement (in operando), sous gaz ou en milieu liquide par exemple. Ces études sont liées à la mise au point de micro-cellules de réactivité, des techniques de pompage différentiel, et des méthodes pouvant opérer dans différentes conditions (parfois extrêmes) de température et de pression, comme les méthodes de caractérisation optique (rayons X, UV-visible, IR).

C. Sciences des matériaux et métallurgie physique

La science de matériaux tente d'établir, par des approches à la fois expérimentales et théoriques, des relations entre la microstructure/les défauts et les propriétés physiques des matériaux. Le spectre des matériaux étudiés est très large, il couvre les métaux et alliages, les oxydes, les céramiques et les semi-conducteurs. Il s'agit aussi bien de matériaux massifs, de films minces que de nano-matériaux. Les recherches sont réalisées sur des matériaux industriels, fonctionnels ou structuraux, et sur des matériaux modèles choisis pour identifier les paramètres physiques pertinents.

Parmi Les domaines d'application, on peut citer l'étude des matériaux du patrimoine, la formulation et l'élaboration d'alliages innovants par exemple pour l'allègement des matériaux dans les transports, l'élaboration des matériaux dont les propriétés finales sont fortement liées aux procédés utilisés pour leur fabrication, leur mise en forme et leur assemblage (Spark Plasma Sintering, frittage micro-ondes, prototypage rapide, compression isostatique à chaud, usinage rapide, laser shock peening, friction stir welding...) ou encore la fabrication additive (impression 3D). Nous décrirons ici quelques exemples où la physique du matériau est abordée en section 05.

1. Les oxydes fonctionnels

L'amélioration de la maîtrise des conditions de dépôt de couches minces d'oxydes permet d'envisager des propriétés (magnétisme, ferroélectricité, transport...) et des applications originales pour ces matériaux. L'existence d'au moins deux ordres ferroïques (ferromagnétisme, ferroélasticité, ferroélectricité) dans une seule phase définit la famille des multiferroïques, parmi lesquels BiFeO3 a été largement étudié. Par ailleurs, la très grande sensibilité des oxydes aux contraintes est mise à profit dans des matériaux ferroélectriques, comme le BaTiO3, magnétostrictifs, comme le CoFe2O4, ou flexoélectriques, comme PbTiO3. La mesure des contraintes dans ces couches est rendue possible par la combinaison d'analyses globales par diffraction de rayons X et locales par STEM-HAADF.

Les oxydes peuvent également présenter des propriétés de transport originales, en particulier montrer un ordre de charge, comme illustré dans MnFe2O4 ou FeTiO3.

2. Matériaux implantés

L'irradiation et/ou l'implantation permet d'introduire de façon contrôlée (concentration, nature et localisation) des défauts dans les matériaux, c'est ainsi un outil qui permet de contrôler/modifier les propriétés physiques des matériaux et de générer de nouvelles propriétés. Elle permet d'explorer de nouvelles voies pour l'obtention de propriétés nouvelles physiques. Par exemple, les défauts bidimensionnels de taille nanométrique, à l'origine du procédé Smart Cut, s'organisent en une architecture spécifique en présence d'un champ de contrainte extérieur. La possibilité de modifier les propriétés physico–chimiques des matériaux est un domaine où il y a tout à explorer notamment pour le contrôle des propriétés optiques et magnétiques (DMS).

Elle est également utilisée comme moyen d'étude en amont, pour fournir les bases de la prédiction du comportement des matériaux en utilisation, comme par exemple les recherches menées dans le cadre du développement des systèmes nucléaires de nouvelle génération où les matériaux (céramiques, aciers à dispersion d'oxydes...) seront soumis à des conditions de sollicitations extrêmes (fort taux d'endommagement et haute température). L'étude des mécanismes de formation et d'évolution des défauts se fait principalement à l'aide de dispositifs expérimentaux : spectroscopie capacitive, diffraction des rayons X, microscopie électronique en transmission, RBS, etc. Des simulations (ab initio, dynamique moléculaire) sont réalisées parallèlement aux expériences pour déterminer la structure fine des défauts apportant des informations complémentaires aux observations.

3. Matériaux du patrimoine

Les matériaux du patrimoine, de nature très diverse, ont en commun d'être hétérogènes à différentes échelles d'observation. C'est cette hétérogénéité qui est source d'informations sur l'histoire du matériau et à travers lui des cultures matérielles. La section 5 s'intéresse aux propriétés structurales, électroniques, optiques et mécaniques de ces matériaux par des approches multi-échelles, afin d'en comprendre le comportement à court et long terme et d'en déduire des éléments sur les procédés techniques anciens, et la conservation ou l'altération des matériaux dans leur milieu d'enfouissement ou de conservation et d'exposition. Pour cela, les méthodes non destructives et non (ou faiblement) invasives sont privilégiées : spectroscopies synchrotron (RX, IR, UV-Vis), spectroscopies vibrationnelles microcopie électronique en transmission, etc.

Une question très actuelle est celle de la représentativité des échantillons ou objets étudiés qui impose peu à peu la nécessité de travailler sur des corpus d'échantillons et/ou de larges objets. Les développements méthodologiques en cours s'orientent ainsi vers les méthodes d'imagerie 2D ou 3D (balayage rapide, imagerie plein champ, tomographies, microscopie multiphoton) qui associent l'information chimique ou cristallographique à la morphologie voire la structure de l'échantillon.

4. Mécanique des nano-objets

Une des évolutions récentes de la science des matériaux concerne l'étude des propriétés mécaniques des nano-objets tels que les nano-piliers et nano-fils utilisés sur les surfaces structurées ainsi que les nano-particules et nano-précipités. De nombreuses questions fondamentales se posent en effet tant du point de vue théorique à propos de la pertinence de l'utilisation des théories de mécanique des milieux continus (élasticité et plasticité) ou du couplage entre ces théories et les approches numériques mises en œuvre à l'échelle microscopique pour décrire le comportement des atomes que du point de vue expérimental, à propos de la détermination, à ces échelles nanométriques, des champs de déformation ou des coefficients élastiques des structures. Des expériences récentes de microscopie électronique ont permis par exemple de déterminer les champs de déplacement élastique dans des plots et fils de taille nanométrique déposés en surface et utilisés dans des dispositifs électroniques. Les variations de la limite d'élasticité des nano-piliers en fonction de leurs dimensions font de même l'objet de nombreuses études.

III. Matière divisée, matière molle

A. Matériaux désordonnés et/ou hétérogènes

Les matériaux désordonnés et/ou hétérogènes couvrent une très large classe de matériaux très différents en fonction de la nature des particules, de leur densité et de la nature des interactions. On pensera ici, pour les plus petites particules à de faibles concentrations, aux colloïdes, pour des particules plus grosses en contact, aux frittés, aux matériaux poreux ou aux composites. Dans les cas intermédiaires, on retrouvera les suspensions, les matériaux granulaires, secs ou immergés, ou, encore, les mousses dont les bulles sont les constituants élémentaires. Parmi ces systèmes, on distinguera des systèmes « thermiques », comme les suspensions colloïdales, pour lesquels on peut évoquer l'agitation thermique et la notion d'équilibre thermodynamique des systèmes « athermiques », comme les matériaux granulaires, pour lesquels les effets de l'agitation thermique ne sont pas suffisants pour assurer l'obtention d'un véritable équilibre thermodynamique. Il conviendra de distinguer aussi, en fonction de la nature des interactions ou des particules : des systèmes « dissipatifs », dans lesquels les interactions sont sources de dissipation énergétique (contact solide entre grains pour les granulaires secs, viscosité du fluide interstitiel pour les suspensions), des systèmes « actifs » dans lesquels de l'énergie est fournie aux particules.

Les matériaux désordonnés et/ou hétérogènes présentent des propriétés physiques souvent complexes qu'il est important de comprendre, tant d'un point de vue fondamental que pour des raisons pratiques. Il en va ainsi de la réponse mécanique (écoulement, fracture...), des propriétés de transport (hydraulique, électrique, thermique...), des diagrammes de phase, des phénomènes d'auto-organisation (bande de cisaillement, matière active...).

Du point de vue fondamental, il est important de comprendre le lien entre, à l'échelle mésoscopique, les propriétés des constituants de base et de leurs interactions et, à l'échelle macroscopique, les propriétés du matériau dans son ensemble. Cette approche multi-échelle est intéressante non seulement pour comprendre les matériaux étudiés pour eux-mêmes mais aussi, parfois, comme modèles à grande échelle de matériaux moléculaires. Ce travail nécessite des développements méthodologiques, expérimentaux et théoriques. D'une part, il faut développer les outils pour soumettre la matière à des sollicitations diverses et mesurer la réponse, parfois à des échelles intermédiaires, difficiles d'accès par les techniques existantes. D'autre part, d'un point de vue théorique, les non-linéarités, le caractère non-conservatif des interactions ou la nature athermique des systèmes conduisent à développer, entre autres, des concepts de physique statistique hors-équilibre ou à améliorer l'outil numérique pour rendre compte de comportements impliquant de larges gammes d'échelles de longueur et de temps. Du point de vue appliqué, les matériaux désordonnés et/ou hétérogènes sont impliqués dans de nombreux processus industriels (broyage, transport, mélange de grains, mise en forme de matériaux...), biophysiques (rhéologie du sang, comportement collectif de bactéries...), ou géophysiques (lave, boues, avalanches, transport sédimentaire, piégeage du CO2...). Ils sont l'objet de nombreuses collaborations interdisciplinaires entre physique, mécanique, géophysique, chimie, biologie.

Pour n'en citer que quelques exemples, les questions actuelles concernent la propagation d'interfaces dans des milieux aléatoires (fracture de matériaux hétérogènes, imbibition de milieux poreux), la rhéologie des fluides complexes (fluide à seuil, thixotropie), l'auto-organisation de systèmes actifs (particules Janus, colloïdes actifs, bactéries) ou encore les propriétés de la matière constituée de grains subissant des transformations (broyage, fusion, réactivité chimique des surfaces, condensation).

B. Morphogenèse, irrégularité

L'étude de la morphogenèse a connu au cours des dernières années un développement original en passant de l'étude de systèmes modèles, les plus idéaux possibles, à l'étude de systèmes réels. Ce changement se traduit par exemple dans le cas de l'étude des structures de croissance en métallurgie (théorique et expérimentale) par la prise en compte des effets des contraintes mécaniques, des effets de l'écoulement lors de la solidification, ou des conditions aux limites. Dans ces situations, on constate à chaque fois que le mécanisme fondamental de morphogenèse est couplé à un autre phénomène physique (souvent mécanique) qui modifie fortement la structure. D'un point de vue théorique, ces travaux ne sont rendus possibles que par l'utilisation du calcul numérique tandis que d'un point de vue expérimental, l'observation in situ en volume de structures tridimensionnelles devient possible en utilisant des techniques telles que la tomographie X.

Dans le même ordre d'idée, les liens entre morphogenèse et mécanique font l'objet de nombreux travaux sur la propagation de fractures, sur les instabilités de délamination ou les interactions fluide-structure au sens large (les milieux granulaires compris). Ces travaux ont de nombreuses implications tant au niveau des processus industriels (délamination par exemple) que des systèmes biologiques où le rôle de la mécanique dans les processus de morphogenèse est de plus en plus pris en compte.

Par ailleurs, les processus de nano-fabrication reposent souvent sur l'auto-organisation lors de processus de croissance ou d'abrasion. Dans cette situation, une étude théorique utilisant les outils classiques de la morphogenèse en les adaptant, le cas échéant, aux particularités des systèmes nanométriques apporte un éclairage profitable comme dans le cas de la formation de nano-piliers par abrasion ionique ou dans le cas du démouillage des solides sur substrat solide.

Finalement, si les travaux sur la morphogenèse en biologie impliquent des concepts éprouvés, l'échelle des systèmes biologiques et leur caractère actif, font que de nouveaux mécanismes de formation de structure apparaissent comme, par exemple, lors de la formation et du mouvement de bancs de poissons ou lors de la croissance de colonies de bactéries.

C. Matière molle et systèmes colloïdaux

La matière finement divisée développe de grandes interfaces et génère des partitions de l'espace parfois, complexes. C'est ici le domaine des nanoparticules et des colloïdes en solution où l'échelle d'énergie des interactions interparticulaires est de l'ordre de quelques kT à quelques dizaines de kT. Ces faibles interactions permettent à ces assemblées de colloïdes « fragiles » d'adopter des portraits de phase riches où peuvent se côtoyer des phases à l'équilibre thermodynamique, des verres et/ou des gels évoluant dans le temps. Le caractère fragile et parfois évolutif de ces « matériaux » les rend très sensibles aux sollicitations ou aux forçages extérieurs de type mécanique, électrique ou magnétique. C'est ici le domaine de la rhéophysique.

Parmi les nombreuses classes de systèmes étudiés récemment, on peut citer, en autres, les travaux portant sur les diagrammes de phase dynamiques des colloïdes actifs et leurs statuts thermodynamiques, l'étude des systèmes mixtes tensio-actif/polymères/colloïdes, l'analyse les portraits de phase de systèmes colloïdaux anisotropes où se confrontent transition isotrope – nématique, apparition de gel ou de verres, processus de floculation. Une question transversale concerne la spécificité et le rôle du solvant qui est en général soit de l'eau soit une huile. Cependant, d'autres solvants comme les liquides ioniques sont actuellement à l'étude. Notons qu'un autre domaine de recherche connexe concerne le séchage des ces systèmes colloïdaux. Des relations possibles avec les études de morphogénèse sont ici à souligner.

D. Fluides confinés à l'échelle micro et nano

La matière finement divisée que l'on rencontre dans les suspensions colloïdales concentrées, ou les milieux poreux, génère de grandes interfaces de contact avec le solvant ou le fluide interstitiel. On peut considérer le confinement qui en résulte à plusieurs échelles. En premier lieu, la zone proximale de la surface où l'interaction du fluide avec l'interface est essentielle. Il s'agit ici de comprendre, le caractère « mouillant » du fluide, sa dynamique et son hydrodynamique (vitesse de glissement aux parois) en relation avec sa structuration moléculaire. À plus grande distance, le rôle de la géométrie 3D du système interfacial est à relier avec la dynamique du fluide. On est donc face à un problème à plusieurs échelles de temps et d'espace bien souvent non séparables.

À l'échelle nanométrique, ces fluides confinés posent d'intéressantes questions concernant les limites de validité des lois de transport macroscopique. C'est un des enjeux des études concernant la « nanofluidique » où le confinement induit de nouvelles propriétés liées aux fluctuations thermiques et électriques, à l'apparition d'organisation moléculaires restreintes et en gradient. Dans ce cadre, plusieurs études considèrent des fluides nanoconfinés simples (eau) ou plus complexes (liquides ioniques, cristaux liquides) dans des systèmes poreux nanoconfinants comme les MCM41, les nanotubes de carbone ou de nitrure de bore, les surpercapacités à base de membranes de carbone désordonnées. Des applications sont envisageables dans les domaines de la nano électrochimie, du stockage d'énergie, de la détection de molécules uniques et de la désalinisation de l'eau.

Les études des fluides nanoconfinés remettent en perspective les processus d'adsorption et de condensation capillaire dans les matériaux nanoporeux en relation avec les propriétés poro-mécaniques, notamment dans le cas des MOF (metal oxyde framework). De plus, partant de l'échelle nanométrique, il reste un véritable défi pour la description dite bottom-up de la dynamique de fluides confinés dans des systèmes interfaciaux multi-échelles souvent désordonnés.

Un autre aspect du confinement interfacial concerne son influence sur la réactivité de surface des fluides confinés. Ce problème, posant en outre la question de la stratégie optimale de recherche de cible, a donné lieu à d'intéressants travaux liés à l'optimisation réactionnelle, en particulier dans le domaine de la catalyse hétérogène et dans l'étude de plusieurs phénomènes biologiques.

E. Propagation d'ondes en milieux complexes

La propagation d'ondes en milieux complexes est un thème qui se trouve au carrefour de nombreuses disciplines de la physique. Cependant, qu'il s'agisse de la propagation des électrons dans un métal contenant des impuretés, de la lumière dans un verre de lait ou bien d'une onde ultra-sonore dans un acier à grains, il s'agit toujours d'étudier la propagation d'une onde dans un milieu hétérogène dont la taille caractéristique est grande devant le libre parcours moyen mais demeure petite devant la longueur de cohérence de phase (cas d'une onde quantique) ou le libre parcours moyen d'absorption (cas d'une onde classique). Dans ce régime, la cohérence des ondes est préservée en dépit de la diffusion multiple. C'est ce qui explique la formation d'une figure de tavelures lorsqu'un milieu opaque est illuminé par un laser. Ce sont aussi des interférences entre ondes multiplement diffusées qui pilotent la transition de phase vers le régime de localisation forte proposé en 1958 par Anderson pour expliquer la transition métal – isolant.

Les ondes classiques (acoustiques, optiques, micro-ondes) sont particulièrement appropriées pour étudier la localisation d'Anderson. En effet, les expériences sont menées sur des échantillons macroscopiques à température ambiante, les interactions non linéaires entre ondes peuvent être évitées (pas de compétition avec la transition de Mott) et la fonction d'onde peut être directement mesurée. Un enjeu majeur est de parvenir à apporter des preuves expérimentales d'une transition vers un régime localisé dans des échantillons tridimensionnels.

La compétition entre localisation et non linéarités, l'effet de la polarisation, la recherche des exposants critiques ou encore le caractère multifractal de la fonction d'onde à la transition sont des sujets d'une grande actualité. Au-delà, la recherche d'analogues classiques de systèmes étudiés en physique du solide est un domaine très actif (cristaux phononiques, cristaux photoniques, modèles micro-ondes du graphène).

La complexité du milieu de propagation, loin d'être toujours une difficulté dont on cherche à s'affranchir, peut être un atout. Ainsi, de nouvelles méthodes de contrôle d'ondes se développent qui exploitent le désordre, la géométrie chaotique ou les résonances locales d'un milieu : lasers aléatoires, fibres optiques à section chaotique, matériaux localement résonants pour le contrôle d'ondes à des échelles sub-longueur d'onde. De même, de nouvelles méthodes d'imagerie exploitent la complexité du milieu pour gagner en résolution spatiale (focalisation par retournement temporel ou par contrôle de front d'ondes, méta-lentilles résonantes pour l'imagerie sub-longueur d'onde), pour y détecter un changement avec une grande sensibilité (interférométrie de la coda) ou pour réaliser des images sans utiliser de source active (imagerie passive par corrélation de bruit, notamment appliquée à la sismologie).

Enfin, une tendance importante est au développement de nouvelles méthodes d'investigation et d'imagerie d'un milieu opaque fondées sur la mesure de sa matrice de transmission (en amplitude et en phase). L'analyse des valeurs singulières et des vecteurs singuliers de la matrice permet de déterminer les canaux disponibles pour le transport d'ondes. La confrontation des mesures aux prédictions de la théorie des matrices aléatoires s'avère fructueuse et des liens s'établissent entre imagerie à travers les milieux opaques, transport électronique et théorie de l'information.

IV. Interface physique biologie

Le terme « interface physique-biologie » désigne en France un domaine scientifique en croissance continue depuis plus de vingt ans. Impulsée initialement par des physiciens souvent venus de la matière molle et des systèmes complexes, de la physico-chimie, de la physique statistique ou de la physique non-linéaire, l'interface physique-biologie recouvre de vastes champs de recherche dont les contours ont évolué et s'attaque maintenant à des questions très biologiques, pour lesquelles la physique apparaît parfois plus comme une façon d'aborder et de réduire un problème que par l'utilisation ou le développement de concepts ou d'instruments physiques.

Pour autant, les physiciens ont un rôle conceptuel, moteur dans les développements méthodologiques et instrumentaux. Les techniques microscopiques d'imagerie optique, acoustique, tomographique ou de cryo-microscopie électronique progressent ainsi que les techniques de nano-micro-manipulation (pinces optiques, magnétiques, micropipettes...) utilisées notamment dans des environnements complexes et couplées à la détection de réponses moléculaires et dynamiques des molécules ou nano-machines étudiées (enzymes, moteurs moléculaires). Ces techniques permettent de soumettre les objets biologiques étudiés à des déformations contrôlées à des échelles nano ou micro-scopiques.

On assiste aussi, ces dernières années, à de grandes avancées en microscopie optique avec des accès notables à la très haute résolution (de l'ordre du nanomètre) et à l'imagerie tridimensionnelle, ce qui laisse entrevoir la possibilité d'imager en temps réel des phénomènes élémentaires de l'activité biologique.

Un des apports majeurs des physiciens concerne les techniques d'application de forces ou de champs aux échelles nano- et microscopiques. Il peut s'agir de lumière pour étudier l'optogénétique, de forces mécaniques (biomembrane force probe, AFM...) pour aborder les questions de mécano-transduction, ou hydrodynamiques (microfluidique) pour étudier notamment la microcirculation sanguine. On note aussi le développement de substrats micro- ou nano-structurés dont les propriétés de rigidité et d'adhésivité influent sur la destinée et les décisions des cellules (différenciation) cultivées sur leur surface. La réalisation de dispositifs tridimensionnels permettant de créer in vitro des environnements mimant les tissus dans lesquels les cellules vivent, et, ainsi, d'observer et de caractériser leur comportement se développe. Les forces sont appliquées à différentes échelles, depuis l'échelle moléculaire (pour étudier par exemple la transcription in situ) à celle des complexes protéiques, des membranes, des cellules et des tissus, voire d'organismes vivants (bactéries par exemple).

En réponse à l'application de forces externes, les physiciens développent et exploitent des méthodes pour détecter la réaction physique ou biologique de systèmes biologiques. On peut citer comme exemples la visualisation et la modélisation des champs de déformation des surfaces (nano- ou micro-structurées) ou des matrices tridimensionnelles sur ou dans lesquelles des cellules se déplacent, des déformations et dynamiques de cellules dans un tissu et le développement continu de nouvelles méthodes de tracking de molécules marquées.

Des études fondamentales sont menées à partir de techniques issues de la physique du solide ou de la matière molle en vue d'applications biomédicales dans le monitoring ou le diagnostic, par exemple dans le domaine des biocapteurs moléculaires ou cellulaires.

Les questions physiques abordées concernent tous les domaines d'organisation du vivant et font souvent intervenir des approches multi-échelles. Les théoriciens abordent de nombreuses questions allant de la structure et fonction de l'ADN, aux questions d'optimisation, de diffusion en milieu complexe et de morphogénèse. À plus grande échelle, ils tentent de modéliser la physiologie et la pathologie des écoulements biologiques, l'hydrodynamique et la diffusion gazeuse dans les poumons et, enfin, ils s'intéressent à la dynamique des populations, aux réseaux d'interaction entre individus de colonies animales et à l'évolution. Les comportements collectifs et les propriétés émergentes d'assemblées cellulaires ou même d'organismes vivants profitent ainsi des avancées les plus récentes de la physique statistique hors d'équilibre et de la physique non-linéaire. Les applications sont nombreuses et concernent en particulier l'embryogenèse, la prolifération tumorale et les biofilms.

Les systèmes biomimétiques ou bio-inspirés sont très étudiés par la communauté. Celle-ci est par exemple très active dans les études des membranes à base de lipides, incluant reconstitution et assemblage de domaines ou dans l'étude de vésicules reproduisant certaines fonctions biologiques (motilité par exemple). Ces travaux trouvent leurs applications en biologie cellulaire et dans la compréhension du trafic intracellulaire. Les systèmes reconstitués multicellulaires tels que les mousses et les émulsions adhésives permettent des études mécaniques en relation avec les phénomènes de développement embryonnaire.

La mécanique et l'hydrodynamique physique sont des thèmes très présents dans la section 05. Une petite partie de la communauté (souvent à la frontière de la section 10) étudie la motilité de micronageurs, de cellules ciliées ou dotées de flagelles ainsi que certains aspects de la réponse mécanique rapide de plantes ou spores. Avec le développement d'outils microfluidiques permettant de contrôler la géométrie des écoulements, la rigidité et la surface des parois ainsi que les contraintes hydrodynamiques appliquées, une communauté croissante s'intéresse à la réponse individuelle de cellules sous flux ainsi qu'à l'organisation des suspensions de cellules, notamment les cellules sanguines.

Enfin, les outils et concepts de la physique sont utilisés pour décrypter les mécanismes physico-chimiques qui contrôlent certaines fonctions biologiques fondamentales (adhésion et migration cellulaire, mécanotransduction, perception mécanique).

V. Outils, méthodes, développements instrumentaux et méthodologiques

A. Outils et méthodes « de routine »

1. Rayons X

De nombreuses études réalisées dans les laboratoires français s'appuient sur l'utilisation complémentaire de techniques expérimentales de pointe développées autour des synchrotrons. La communauté a accès à des lignes de lumière au meilleur niveau mondial tant dans pour les X durs à l'ESRF, que pour les X mous, rayonnement UV-visible et Infra-rouge à SOLEIL. Elle sait en tirer parti et est ainsi très bien placée dans la compétition internationale. En ce sens, SOLEIL et l'ESRF jouent un rôle essentiel et irremplaçable.

Sources Synchrotron pulsées et expériences « pompe-sonde »

Les synchrotrons de nouvelle génération disposent de lignes de lumière optimisées pour l'utilisation de la structure temporelle des pulses synchrotrons. Ces techniques ont notamment été initiées à BESSY, SLS, ELETTRA et SOLEIL dans la gamme 50 ps (résolution temporelle d'un paquet d'électrons normal) utilisée pour les études de dynamique dans différents domaines (magnétisme imagerie PEEM, spectroscopies, dynamique de réseau...).

Parmi les domaines d'application, on peut citer un grand nombre de techniques dont l'imagerie de photoélectrons pour décrire la dynamique de domaines magnétiques, ou de configurations de type vortex magnétiques, la diffraction résonante pour décrire la dynamique de structures périodiques ou encore les spectroscopies d'absorption X polarisés pour décrire la dynamique de l'aimantation des moments de spin et d'orbite. L'ensemble de ces techniques combinant la sélectivité chimique, une résolution spatiale d'une dizaine de nanomètres et une résolution temporelle élevée constituent un outil unique pour l'étude des matériaux et de leurs processus dynamiques.

Nano-imageries

Les progrès rapides concernant l'augmentation de la longueur de cohérence latérale ont amélioré et amélioreront de façon importante les conditions de diffraction cohérente, facilitant le phasage des images de diffraction. Dans un futur proche, l'imagerie 3D en contraste de phase devrait atteindre des résolutions nanométriques. Finalement, la conjonction d'une meilleure divergence, d'une brillance et d'une cohérence plus importante ouvre la voie à des études 3D cinétiques, in operando, dans des échelles de temps sub-microseconde. Plusieurs domaines scientifiques devraient en bénéficier avec des connexions industrielles directes, notamment dans les domaines de l'énergie, de l'environnement et de la santé. Un couplage avec les techniques de micro fluidique, voire de nano fluidique, devrait apporter des ruptures expérimentales et conceptuelles.

Un point critique est ici à souligner. Il concerne les très hauts débits de données générées par ce type d'expérience, impliquant de nouveaux détecteurs ultra rapides ainsi que des stratégies de transfert à très haut débit et d'analyse de données radicalement nouvelles (big data, automatisation et parallélisation des post-traitements). Ici, une collaboration formalisée entre notre communauté et celle des mathématiques appliqués et du traitement du signal serait souhaitable.

Lasers à électrons libres X-FEL et applications

La mise en service des lasers à électrons libres dans le domaine des rayons X durs (énergie de 8 à 20 keV), a permis l'émergence de nouvelles thématiques autour de la matière diluée, des molécules et des processus ultrarapides comme les transformations d'ordre structural et magnétique, ainsi que l'imagerie holographique résolue en temps.

Ces nouvelles applications on été rendues possibles grâce aux caractéristiques du faisceau produit par les XFEL : flux par pulse élevé permettant une acquisition en mode « single shot » (brillance de 10 ordres de grandeur supérieure à ce qui est obtenu dans les synchrotrons), cohérence de l'ordre du mm, structure temporelle modulable et concurrentielle avec les lasers infrarouges actuels (1 fs à 300 fs). La maîtrise des fluctuations de l'énergie et de l'intensité pulse à pulse, ainsi que le contrôle et la mesure des différents paramètres du faisceau X (intensité incidente pour la normalisation des données) restent souvent difficiles. Des améliorations dans tous ces domaines techniques sont en cours de test sur les X-FEL de 1re génération (FLASH, LCLS-STANFORD).

Parmi les domaines d'application, on peut citer : l'imagerie par diffraction de molécules uniques (biologiques en particulier), la mesure de phénomènes ultrarapides entre 10 fs et quelques ps (couplage électron-phonon, dynamique de la désaimentation, réaction photo-induite et transfert électronique, états intermédiaires...), la mesure de la forme et du champ de contraintes de nano-objets enterrés, l'étude de dynamiques « lentes » (transitions ordre-désordre, phénomènes diffusifs, phasons dans les cristaux apériodiques...) de la microseconde à la seconde, la visualisation de la propagation d'ondes de choc ou la propagation de phonons. Il y a actuellement trois projets dans le monde qui visent à produire des faisceaux laser X dans un domaine de longueur d'onde autour de 0,1 nm en utilisant des sources à électrons libres : Stanford (USA), Spring 8 (Japon) et Hambourg (X-FEL Européen). Stanford a produit le premier faisceau laser X durs en 2009. Il est très regrettable que l'investissement financier de la France dans le laser Européen X-FEL de Hambourg soit si faible quand les crédits destinés aux chercheurs pour financer leurs voyages vers les instruments des autres continents, sont quasiment impossibles à obtenir, mettant en danger le développement de cette communauté en France.

Sources Laser haute énergie HHG et grandes Infrastructures

L'apparition de sources lasers pulsées et accordables (HHG : High Harmonic Generation) donne lieu à un développement important des études de dynamique de la matière condensée, les durées d'impulsion qui descendent jusqu'à 10 femtosecondes, sont bien adaptées aux temps caractéristiques de nombreux phénomènes électroniques. Au niveau microscopique, la relaxation vers l'état d'équilibre après une excitation induite par l'absorption de photon se fait par une cascade de processus qui dépend de façon cruciale de la structure électronique du matériau considéré (métal, semiconducteur, isolant) ainsi que de sa taille et de son environnement. Le paramètre-clé de ces études est l'accordabilité en longueur d'onde qui permet de créer une excitation spécifique, puis de sonder sélectivement l'état de l'échantillon. Le développement de sources laser à impulsions courtes (attosecondes et femtosecondes) et d'énergie importante permet de créer à la surface de l'échantillon un champ électrique extrêmement important. Ceci donne accès à une science X ultra-rapide d'un grand intérêt pour les études de dynamique structurale et magnétique. Un gain de plusieurs ordres de grandeur tant de la brillance que de l'énergie des pulses X est attendu des futurs lasers à électrons libres et des infrastructures européennes comme ELIE-ALPS.

2. Accélérateurs d'ions

La communauté scientifique dispose de sources d'ions couvrant un large éventail d'énergie et de masse. Des implanteurs dont les énergies sont comprises entre 10 et 1 000 keV, sont disponibles à l'échelle d'un laboratoire (en ligne ou PBII), et qui sont généralement utilisés pour la modification des propriétés physiques des matériaux (cf. II.C). Il existe aussi de grands équipements sous forme de plate-formes (JANNuS-Orsay, JANNuS-Saclay, CIMAP-GANIL, LSI, etc.) qui dépendent du réseau EMIR, et qui permettent d'atteindre des énergies de plusieurs MeV et des masses élevées. Ils sont utilisés pour l'analyse structurale et chimique des matériaux (RBS, NRA...), mais aussi pour simuler les conditions rencontrées dans les réacteurs nucléaires (neutrons) ou dans l'espace (vent solaire) afin de prédire la tenue des matériaux dans ces environnements extrêmes. La plate-forme JANNuS–Orsay permet le suivi in situ à l'échelle mésoscopique de l'évolution de la microstructure des matériaux pendant l'irradiation.

3. Apport des neutrons

Avec les réacteurs de l'Institut Laue-Langevin (ILL) et du Laboratoire Léon Brillouin (LLB), la communauté scientifique française a accès à des outils de recherche, à base de faisceaux de neutrons, de tout premier plan. Une gamme très complète d'instruments neutroniques – diffractomètres, spectromètres, diffusion à petits angles, neutrons polarisés sont actuellement accessibles. Les recherches répondent à un très large éventail de questions en science fondamentale, dans les domaines les plus variés : biologie, chimie, matière molle, physique nucléaire, science des matériaux, etc.

Un grand projet de source à spallation européenne (European Spallation Source) se développe, porté par un grand nombre de pays européens. Cette nouvelle source aura des caractéristiques exceptionnelles (bruit faible, très haut flux, structure pulsée du faisceau avantageuse pour les grandes longueurs d'onde, sécurité d'exploitation...). Cependant un délai de 10 ans nous sépare très certainement de la mise en exploitation pleine de cette source européenne. Cette période de transition devra être gérée avec prudence afin que la communauté française des neutrons, qui a actuellement une position internationale forte, puisse s'adapter et participer au développement de l'ESS, sans à-coups majeur, tout en continuant son développement scientifique de haut niveau et son rôle dans la formation des futurs utilisateurs.

Pour ce qui concerne les systèmes de la matière molle (suspensions colloïdales, milieux polymériques, cristaux liquides, systèmes tensio-actifs...), les techniques neutroniques concernent soit la caractérisation de la structure par SANS soit le suivi de la dynamique du système par QUENS ou écho de spins.

Ces dispositifs expérimentaux peuvent permettre de suivre les dynamiques de fluides complexes confinés ou proches d'une transition vitreuse sur une gamme de temps de corrélation difficile d'accès, à savoir de la ps à quelques dizaines de ns. Enfin, le développement de l'imagerie de neutrons est à souligner. Elle permet en particulier de visualiser des objets épais -même si la résolution spatiale est moins bonne qu'en imagerie X- laissant ainsi espérer disposer de moyens d'imagerie 3D de systèmes in operando comme les piles à combustibles et aussi suivre les cinétiques de transfert et de réaction au sein de milieux poreux. Ces travaux devront bien évidemment se faire dans le cadre d'une approche multimodale associant d'autres imageries 2D et 3D (TEM, TXM, micro-tomographie rayons-X, microscopie X...).

En science des matériaux, la diffusion neutronique permet de déterminer l'organisation et la dynamique des atomes dans un matériau, d'appréhender les phénomènes électroniques et magnétiques. Complémentaire des techniques basées sur l'interaction de la matière avec les photons (de la lumière visible aux rayons X), les électrons (microscopies et diffraction), la résonance magnétique nucléaire, elle possède de forts atouts liés aux propriétés du neutron. Ses spécificités lui confèrent une place de choix tant pour des études fondamentales de physique de la matière condensée (supraconductivité non conventionnelle, ordre orbital, magnétisme quantique, multiferroïcité) que pour la détermination de la structure et des propriétés dynamiques de nouveaux matériaux fonctionnels.

4. RMN bas champs et techniques de gradients de champ magnétique

La spectroscopie RMN reste un outil essentiel dans l'analyse de la structure et de la dynamique à l'échelle moléculaire. Une grande partie de la communauté développant cet outil se retrouve dans les Instituts de Chimie et des Sciences Biologiques et utilise en général des spectromètres à haut voire très haut champ magnétique.

Dans le cadre du suivi de la dynamique au sein de matériaux multi échelles, une niche reste cependant très active dans notre commission, incluant (i) l'étude de la relaxation RMN à bas champ magnétique (R1, R2), aussi appelée RMND, (ii) le développement des méthodes de gradients de champs pulsés, (iii) les diverses associations de ces deux précédents types d'expérience dans des protocoles RMN dits « 2D ». Ces approches alliant spectroscopie RMN, analyses et modélisations de physique statistique permettent de compléter les études de la dynamique en confinement sur des gammes d'échelles de temps et d'espace qui s'étendent, pour la RMND, de la ns à la microseconde et de quelques angströms à quelques dizaines de nm et, pour les techniques de gradient de champ magnétique, de la ms à quelques secondes et du micromètre au mn. Un domaine connexe bénéficiant de l'utilisation de la RMND concerne l'étude du fonctionnement des agents de contraste moléculaires et/ou nanoparticulaires utilisés en imagerie médicale. Ce sujet à l'interface entre plusieurs disciplines est en forte évolution et appelle une meilleure compréhension des propriétés magnétiques et dynamiques des nanoparticules porteuses d'un moment magnétique en relation avec leur environnement (fluide, cellulaire, membranaire). Ici, la RMND reste un outil de choix.

5. Diffusion de la lumière

Les méthodes de diffusion dynamique de la lumière ont fortement évolué ces dix dernières années, bénéficiant d'une meilleure connaissance de la diffusion de rayonnement en milieu désordonné, du développement d'une instrumentation originale, de nouveaux outils conceptuels d'analyse du signal comme les corrélateurs spatio-temporels à 4 points. La diffusion dynamique de lumière conventionnelle (DLS) sonde la dynamique microscopique des matériaux mous et raisonnablement transparents, en moyennant fortement cette dynamique dans le temps et l'espace, le signal étant échantillonné sur l'ensemble du volume irradié. De nouveaux montages tels que l'imagerie de corrélation de photon (PCI) permettent d'obtenir un suivi du facteur de structure dynamique résolu en temps et en espace. Les progrès actuels de méthodes de diffusion de lumière couplés éventuellement à la microscopie confocale permettent d'étudier l'évolution spatio-temporelle de matériaux mous comme les gels et/ou les verres colloïdaux (colloïdes, émulsion, polymères...) sous contrainte et/ou lors de leur vieillissement. Une meilleure compréhension des processus de rupture, de fluage et de leurs précurseurs permettront de comparer ces matériaux à des systèmes plus durs comme les solides polycristallins.

6. Microscopies
Microscopie électronique

Il y a 10 ans, la commercialisation des premiers correcteurs d'aberration a provoqué une révolution dans la microscopie électronique en transmission (MET). Cet équipement a permis de s'affranchir du principal défaut des microscopes électroniques : l'aberration sphérique importante de la lentille objectif. Non seulement la résolution spatiale des instruments a fait un bond en avant mais d'autres configurations expérimentales sont devenues accessibles. Par exemple, la place libérée entre les pièces polaires de l'objectif a permis l'introduction de porte-objets de plus en plus sophistiqués pour les expériences in-situ, telles que la nano-indentation, la cathodoluminscence localisée, et les observations sous champ électromagnétique ou en cellule liquide. La correction d'aberration a également permis de baisser la tension d'accélération des électrons pour étudier de façon optimale des objets sensibles à l'irradiation tels que les nanotubes de carbone ou le graphène.

L'arrivée des correcteurs d'aberration a coïncidé avec l'essor des nanosciences et des nanotechnologies. Les spectromètres, les détecteurs, l'informatisation des appareils, les porte-objets et les monochromateurs connaissent actuellement des développements très importants. L'arrivée des sources d'électrons pulsées par laser femto-seconde promet de propulser l'étude des phénomènes à des échelles de temps jamais connues auparavant. Et comme pour les autres techniques d'observation, l'accroissement de la puissance des ordinateurs et les progrès du traitement de données ont démultiplié les possibilités d'analyse quantitative des matériaux. On peut citer la spectroscopie des plasmons, la tomographie atomique, l'holographie des contraintes et la cristallographie par diffraction électronique en précession.

Il faut souligner que tous ces développements, instrumentaux et méthodologiques, sont issus de recherches en laboratoire. C'est seulement par la suite qu'ils ont été repris par les constructeurs de microscopes électroniques (le plus souvent via des SME et des startups). Il est donc illusoire d'imaginer que l'industrie assurera le développement de la microscopie et il est crucial de soutenir ces recherches dans les laboratoires et leur transfert technologique ultérieur.

Sonde ionique

La Sonde Atomique Tomographique est un microscope analytique qui permet de dresser une cartographie tridimensionnelle des espèces chimiques présentes dans un matériau à l'échelle atomique, suite à l'évaporation contrôlée des atomes de surface par l'action combinée d'un fort champ électrique statique et d'une impulsion laser ultra brève. Cet instrument, incontournable en métallurgie physique et plus largement aujourd'hui dans les études d'oxydes, de céramiques et de semi-conducteurs massifs ou nanostructurés (nanoélectronique, optoélectronique, optique, spintronique...), est aussi devenu un outil de choix pour l'étude de l'interaction laser/nano-objet. L'étude de l'interaction entre un faisceau laser ultra bref et un matériau sous la forme d'une pointe nanométrique soumise à un champ électrique intense est d'une grande importance dans une large communauté scientifique telle que la communauté de l'imagerie en champ proche par p-STM (photon stimulated scanning tunneling microscopy), la communauté de l'émission d'électrons en régime attoseconde avec le p-EE (photon-assisted electron emission) et plus récemment la communauté de l'imagerie 3D des matériaux à l'échelle atomique.

B. Développements instrumentaux et méthodologiques

Certaines propriétés de la matière ne sont pas accessibles par les moyens expérimentaux existants. Les raisons de ces impossibilités sont diverses et peuvent être liées aussi bien à la dimension des objets étudiés qu'à l'ordre de grandeur de la propriété que l'on désire mesurer. Il est alors nécessaire d'investir dans le développement d'un instrument spécifique. Souvent, cet instrument est à son tour moteur dans l'émergence de nouvelles recherches. Que ce soit à l'échelle d'un équipement de laboratoire ou sur un TGE, ce développement instrumental peut consister en l'optimisation et/ou l'association de techniques existantes sur un même dispositif (ensembles UHV, Compression sous AFM/STM, AFM sous synchrotron, laser pompe-sonde...) ou en l'utilisation de principes physiques nouveaux pour la mesure (imagerie de phénomènes ultra-rapides par des expériences pompe-sonde dans un MET, imagerie de surface grâce à l'holographie utilisant des électrons lents...).

De façon générale il semble se dégager quelques tendances lourdes dans le développement instrumental. Parmi elles, nous avons identifié l'imagerie multi-échelles, l'imagerie 3D, l'accroissement de la résolution spatiale et temporelle, l'intégration de différentes techniques et la poursuite du développement de techniques environnementales permettant en particulier l'exploration des effets de conditions extrêmes de température ou de pression.

Ainsi, l'étude des mécanismes de la plasticité a été rendue possible par le développement d'un dispositif de déformation plastique in situ sous AFM-STM en environnement UHV et à température variable ; les transitions haut spin – bas spin de molécules magnétiques ont pu être étudiées grâce au développement de dispositifs lasers pompe-sonde femtoseconde. Cette expérience permet d'identifier les phénomènes mis en jeu sur des gammes de temps de la pico à la microseconde et ainsi de les attribuer à différents processus (transition d'état magnétique, interactions élastiques, diffusion de chaleur...).

D'autres développements sont en cours et pourront ouvrir la voie à de nouveaux axes de recherche. Ainsi, le développement de l'holographie dans un LEEM permettra de mesurer in situ et en temps réel les évolutions des travaux de sortie, les champs de contraintes ou les champs de fuite à la surface des matériaux. Toujours en microscopie électronique mais dans un MET cette fois, les expériences de microscopie ultra-rapide permettront d'étudier la dynamique des phénomènes physiques.

Les SAT, comme développés à Rouen, vont évoluer en intégrant des moyens de spectroscopie in-situ (spectroscopie optique d'absorption et de photoluminescence et spectroscopie en énergie des électrons et ions émis). Cette intégration permettra d'élargir les performances de la SAT laser qui sera alors capable de fournir des informations optiques à l'échelle nanométrique de l'échantillon sondé, des informations sur les propriétés électroniques de surface et sur la réponse électronique à l'excitation laser.

Pour terminer, notons que le développement instrumental demande un investissement humain important et couvrant de très larges domaines de compétences. Pour les chercheurs, cela peut se traduire par un affaiblissement de la production scientifique mais la section veillera à ce que cela ne soit pas pénalisant pour les intéressés. Il faut noter que ce type de recherche ne pourra se poursuivre que si les laboratoires conservent un personnel technique suffisant et un financement stable sur le long terme. La section s'inquiète de la diminution importante constatée dans ces deux domaines au cours des quatre dernières années.

C. méthodologie en simulation et théorie

L'activité Théorie et Simulations en section 05 épouse les contours et l'étendue des thématiques expérimentales présentées dans ce rapport. Des mécanismes de croissance de nanostructures inorganiques à la rhéologie des fluides complexes, de la théorie des matrices aléatoires pour le transport en milieu désordonné à la plasticité dans les systèmes inhomogènes, les sujets d'intérêts et les méthodologies varient d'une communauté à l'autre. De plus, bien que l'intitulé de la section 05 suggère pour champ d'étude exclusif les propriétés structurales et dynamiques des systèmes « condensés », l'étude des propriétés électroniques, optiques, magnétiques de la matière est également très représentée puisqu'il est difficile de découpler structure et propriétés. Cette diversité de phénomènes physiques et d'objets d'étude entraîne une diversité des compétences et des techniques, entre théorie analytique formelle et expériences numériques.

Alors que les antagonismes passés entre approches analytiques ou numériques s'estompent, la problématique de créer du lien entre toutes les lames du « couteau suisse » théorique et numérique se pose, d'autant plus que la pénurie de poste permet difficilement d'embrasser tous les sujets. À ce titre, l'existence de groupes théoriques constitués, voire de laboratoires dédiés à la théorie, semble être une approche couramment adoptée par une grande partie des laboratoires sans effet notable sur les collaborations théorie/expérience. Les développements analytiques ou numériques, de l'équation sur le papier à l'implémentation efficace dans un code porté sur un supercalculateur massivement parallèle, sont si complexes et le spectre de compétences requises si large qu'un théoricien isolé peinera à avancer suffisamment vite dans un contexte compétitif. Pour prendre l'exemple des « grands » codes ab initio autour de la théorie de la fonctionnelle de la densité (DFT), la communauté est aujourd'hui dominée par quelques grands groupes (Italie, Belgique, Allemagne, Autriche, etc.) rassemblant compétences mathématiques et numériques. Bien qu'au service de la compréhension de phénomènes physiques révélés par l'expérience, le développement théorique et méthodologique reste un enjeu essentiel à mener en parallèle avec les applications.

Pour revenir aux thématiques scientifiques et méthodologiques, et puisqu'il faut bien aborder la diversité par une de ses portes d'entrée, la théorie de la fonctionnelle de la densité (DFT) reste l'approche quantique ab initio la plus utilisée lorsqu'il s'agit d'étudier les propriétés structurales et dynamiques (phonons, dynamique moléculaire) de systèmes comprenant jusqu'à quelques centaines d'atomes. Quelques progrès significatifs ont été réalisés récemment : (a) incorporation des forces de dispersion telle que les forces de van der Waals d'intérêt par exemple pour le graphène, (b) généralisation de l'utilisation des techniques de génération automatique de structure pour la recherche de nouveaux matériaux, (c) incorporation en « standard » dans les codes des termes de couplage électron-phonon pour la supraconductivité, la contribution de la diffusion inélastique à la résistivité des matériaux, ou les temps de vie des états excités.

Bien que souvent utilisée pour avoir une première description des propriétés électroniques des matériaux, la DFT reste un formalisme de l'état fondamental et des techniques plus performantes, de type théorie de perturbation à N-corps (approches GW, Bethe-Salpeter) deviennent presque routinières pour l'étude précise des propriétés électroniques et optiques (excitoniques) de matériaux comprenant jusqu'à une centaine d'atomes.

L'école française des liaisons fortes, avec une paramétrisation issue souvent des calculs ab initio, reste très vivace, avec des groupes importants à Lille, Marseille, Grenoble, etc. qui ont su suivre les évolutions des thématiques, en faisant évoluer les formalismes et les codes pour traiter des problèmes complexes tels que le transport électronique hors d'équilibre dans des transistors ultimes, la génération multi-excitons dans les cellules solaires, ou encore les propriétés électroniques d'isolants topologiques. De fait, nombre de développements méthodologiques dans le domaine ab initio reformulent des travaux effectués en liaisons fortes dans les années 60.

Pour des systèmes de plus grande taille, ou des dynamiques allant au delà de quelques dizaines de picosecondes, la DFT reste très utilisée pour paramétrer un champ de force semi-empirique ou calculer une barrière d'activation à l'aide d'approches de type « bandes élastiques » ou « sauts de bassin ». Ces potentiels empiriques, ou cette cartographie des points cols et bassins d'une surface de potentiel, viennent nourrir des simulations de dynamique moléculaire ou des simulations de type Monte Carlo cinétique à plus grande échelle. De très belles applications aux mécanismes de croissance de nanotubes ou d'îlots en surface, à la mobilité de dislocations pour la plasticité, à l'auto-organisation de films moléculaires en surface, aux propriétés thermodynamiques et cinétiques de gaz adsorbés dans des matériaux poreux illustrent la puissance de ces procédures multi-échelles.

À une échelle « mésoscopique », l'usage de méthodes de dynamique moléculaire classique sur des ordinateurs massivement parallèles permet une description des verres ou des milieux granulaires pour des systèmes comportant beaucoup de particules. Ceci a permis d'élucider les liens entre la transition vitreuse et la transition de « jamming ». L'usage, courant de ce type de simulations permet aussi de mieux comprendre les liens qui existent entre interactions inter-particules et lois de comportement macroscopique. Ces approches sont souvent limitées aux temps courts.

Au contraire, le développement des approches de type « phase field crystal » (champ de phase) apparues en 2004 permet de sonder les évolutions aux temps longs des matériaux, tout en décrivant à la fois les phénomènes élastiques et leur structure atomique discrète. Cependant, seul le comportement moyen est accessible.

À l'échelle macroscopique, pour décrire les phénomènes de croissance, les approches de type champ de phase sont devenues d'usage courant et la recherche s'oriente vers le développement de modèles quantitatifs afin de pouvoir utiliser les données des tables thermodynamiques ou des modèles permettant la description de plusieurs effets physiques (écoulement, élasticité, etc.). La relative facilité technique de mise en œuvre de ces approches a fait que des applications à des domaines aussi divers que les écoulements multiphasiques, la fissuration, la dynamique de dislocation, de marches atomiques, ont été proposées. Dans tous ces cas, bien que l'énoncé du problème soit simple, la mise en place d'un modèle satisfaisant d'un point de vue quantitatif nécessite des développements méthodologiques significatifs impliquant calculs analytiques et numériques.

Pour accéder aux propriétés mécaniques des matériaux à l'échelle mésoscopique une problématique similaire est posée. En effet, on s'attache à caractériser l'influence de défauts microscopiques tels que les dislocations, les joints de grains, les macles ou les fissures sur la tenue mécanique des structures étudiées que ce soient par exemple des plots ou des lignes pour les surfaces structurées ou bien des nano-particules ou nano-précipités lorsqu'il s'agit de structures en volume. Une fois les propriétés élastiques locales déterminées, leur organisation spatiale connue et les effets de taille pris en compte, ces problèmes fondamentaux peuvent en partie être abordés dans le cadre de la théorie de l'élasticité. Les codes de dynamique discrète de dislocations (DDD) couplés à des codes d'éléments finis (EF) permettent en effet d'étudier le comportement d'un grand nombre de dislocations et d'établir à partir de leurs mouvements collectifs, des lois de comportement à l'échelle macroscopique pour les matériaux ainsi que de caractériser leur microstructure.

En ce qui concerne le délaminage des interfaces, la propagation des fissures et les phénomènes de rupture et de cloquage de films minces et de matériaux revêtus, des simulations par éléments finis basées sur la théorie élastique de Föppl von Kàrmàn des plaques minces initialement développée pour des structures macroscopiques sont actuellement menées afin d'identifier les paramètres critiques (contraintes, épaisseurs) susceptibles de contrôler la stabilité des structures. Ces simulations effectuées à l'échelle mésoscopique couplées à des simulations de dynamique moléculaire effectuées à l'échelle microscopique devraient permettre d'intégrer les phénomènes de pliures plastiques et d'émission de dislocations dans les interfaces ainsi que de caractériser l'influence des marches atomiques sur le cloquage de matériaux revêtus.

Enfin aux plus grandes échelles (propagation d'ondes en milieux complexes entre autres), dans les cas où la géométrie est simple, les approches de type éléments finis restent optimales et bénéficient de développements constants adaptés aux évolutions matérielles (calcul massivement parallèle, GPU).

Conclusion

Ce document n'a pas la prétention d'être exhaustif et, si d'aventure, des collègues n'y retrouvent pas leur activité décrite en détail, qu'ils nous en excusent ! Il montre la variété de matériaux qui méritent d'être étudiés – qu'ils soient durs, mous, vivants ou inertes –, la richesse des questions qu'ils posent aux physiciens et la diversité des moyens expérimentaux, numériques et théoriques développés et mis en œuvre. Apparaît également la richesse des applications auxquelles ont conduit et continueront à conduire des études très fondamentales qu'il est crucial de soutenir.