Section 05 Matière condensée : organisation et dynamique

V. Outils, méthodes, développements instrumentaux et méthodologiques

A. Outils et méthodes « de routine »

1. Rayons X

De nombreuses études réalisées dans les laboratoires français s'appuient sur l'utilisation complémentaire de techniques expérimentales de pointe développées autour des synchrotrons. La communauté a accès à des lignes de lumière au meilleur niveau mondial tant dans pour les X durs à l'ESRF, que pour les X mous, rayonnement UV-visible et Infra-rouge à SOLEIL. Elle sait en tirer parti et est ainsi très bien placée dans la compétition internationale. En ce sens, SOLEIL et l'ESRF jouent un rôle essentiel et irremplaçable.

Sources Synchrotron pulsées et expériences « pompe-sonde »

Les synchrotrons de nouvelle génération disposent de lignes de lumière optimisées pour l'utilisation de la structure temporelle des pulses synchrotrons. Ces techniques ont notamment été initiées à BESSY, SLS, ELETTRA et SOLEIL dans la gamme 50 ps (résolution temporelle d'un paquet d'électrons normal) utilisée pour les études de dynamique dans différents domaines (magnétisme imagerie PEEM, spectroscopies, dynamique de réseau...).

Parmi les domaines d'application, on peut citer un grand nombre de techniques dont l'imagerie de photoélectrons pour décrire la dynamique de domaines magnétiques, ou de configurations de type vortex magnétiques, la diffraction résonante pour décrire la dynamique de structures périodiques ou encore les spectroscopies d'absorption X polarisés pour décrire la dynamique de l'aimantation des moments de spin et d'orbite. L'ensemble de ces techniques combinant la sélectivité chimique, une résolution spatiale d'une dizaine de nanomètres et une résolution temporelle élevée constituent un outil unique pour l'étude des matériaux et de leurs processus dynamiques.

Nano-imageries

Les progrès rapides concernant l'augmentation de la longueur de cohérence latérale ont amélioré et amélioreront de façon importante les conditions de diffraction cohérente, facilitant le phasage des images de diffraction. Dans un futur proche, l'imagerie 3D en contraste de phase devrait atteindre des résolutions nanométriques. Finalement, la conjonction d'une meilleure divergence, d'une brillance et d'une cohérence plus importante ouvre la voie à des études 3D cinétiques, in operando, dans des échelles de temps sub-microseconde. Plusieurs domaines scientifiques devraient en bénéficier avec des connexions industrielles directes, notamment dans les domaines de l'énergie, de l'environnement et de la santé. Un couplage avec les techniques de micro fluidique, voire de nano fluidique, devrait apporter des ruptures expérimentales et conceptuelles.

Un point critique est ici à souligner. Il concerne les très hauts débits de données générées par ce type d'expérience, impliquant de nouveaux détecteurs ultra rapides ainsi que des stratégies de transfert à très haut débit et d'analyse de données radicalement nouvelles (big data, automatisation et parallélisation des post-traitements). Ici, une collaboration formalisée entre notre communauté et celle des mathématiques appliqués et du traitement du signal serait souhaitable.

Lasers à électrons libres X-FEL et applications

La mise en service des lasers à électrons libres dans le domaine des rayons X durs (énergie de 8 à 20 keV), a permis l'émergence de nouvelles thématiques autour de la matière diluée, des molécules et des processus ultrarapides comme les transformations d'ordre structural et magnétique, ainsi que l'imagerie holographique résolue en temps.

Ces nouvelles applications on été rendues possibles grâce aux caractéristiques du faisceau produit par les XFEL : flux par pulse élevé permettant une acquisition en mode « single shot » (brillance de 10 ordres de grandeur supérieure à ce qui est obtenu dans les synchrotrons), cohérence de l'ordre du mm, structure temporelle modulable et concurrentielle avec les lasers infrarouges actuels (1 fs à 300 fs). La maîtrise des fluctuations de l'énergie et de l'intensité pulse à pulse, ainsi que le contrôle et la mesure des différents paramètres du faisceau X (intensité incidente pour la normalisation des données) restent souvent difficiles. Des améliorations dans tous ces domaines techniques sont en cours de test sur les X-FEL de 1re génération (FLASH, LCLS-STANFORD).

Parmi les domaines d'application, on peut citer : l'imagerie par diffraction de molécules uniques (biologiques en particulier), la mesure de phénomènes ultrarapides entre 10 fs et quelques ps (couplage électron-phonon, dynamique de la désaimentation, réaction photo-induite et transfert électronique, états intermédiaires...), la mesure de la forme et du champ de contraintes de nano-objets enterrés, l'étude de dynamiques « lentes » (transitions ordre-désordre, phénomènes diffusifs, phasons dans les cristaux apériodiques...) de la microseconde à la seconde, la visualisation de la propagation d'ondes de choc ou la propagation de phonons. Il y a actuellement trois projets dans le monde qui visent à produire des faisceaux laser X dans un domaine de longueur d'onde autour de 0,1 nm en utilisant des sources à électrons libres : Stanford (USA), Spring 8 (Japon) et Hambourg (X-FEL Européen). Stanford a produit le premier faisceau laser X durs en 2009. Il est très regrettable que l'investissement financier de la France dans le laser Européen X-FEL de Hambourg soit si faible quand les crédits destinés aux chercheurs pour financer leurs voyages vers les instruments des autres continents, sont quasiment impossibles à obtenir, mettant en danger le développement de cette communauté en France.

Sources Laser haute énergie HHG et grandes Infrastructures

L'apparition de sources lasers pulsées et accordables (HHG : High Harmonic Generation) donne lieu à un développement important des études de dynamique de la matière condensée, les durées d'impulsion qui descendent jusqu'à 10 femtosecondes, sont bien adaptées aux temps caractéristiques de nombreux phénomènes électroniques. Au niveau microscopique, la relaxation vers l'état d'équilibre après une excitation induite par l'absorption de photon se fait par une cascade de processus qui dépend de façon cruciale de la structure électronique du matériau considéré (métal, semiconducteur, isolant) ainsi que de sa taille et de son environnement. Le paramètre-clé de ces études est l'accordabilité en longueur d'onde qui permet de créer une excitation spécifique, puis de sonder sélectivement l'état de l'échantillon. Le développement de sources laser à impulsions courtes (attosecondes et femtosecondes) et d'énergie importante permet de créer à la surface de l'échantillon un champ électrique extrêmement important. Ceci donne accès à une science X ultra-rapide d'un grand intérêt pour les études de dynamique structurale et magnétique. Un gain de plusieurs ordres de grandeur tant de la brillance que de l'énergie des pulses X est attendu des futurs lasers à électrons libres et des infrastructures européennes comme ELIE-ALPS.

2. Accélérateurs d'ions

La communauté scientifique dispose de sources d'ions couvrant un large éventail d'énergie et de masse. Des implanteurs dont les énergies sont comprises entre 10 et 1 000 keV, sont disponibles à l'échelle d'un laboratoire (en ligne ou PBII), et qui sont généralement utilisés pour la modification des propriétés physiques des matériaux (cf. II.C). Il existe aussi de grands équipements sous forme de plate-formes (JANNuS-Orsay, JANNuS-Saclay, CIMAP-GANIL, LSI, etc.) qui dépendent du réseau EMIR, et qui permettent d'atteindre des énergies de plusieurs MeV et des masses élevées. Ils sont utilisés pour l'analyse structurale et chimique des matériaux (RBS, NRA...), mais aussi pour simuler les conditions rencontrées dans les réacteurs nucléaires (neutrons) ou dans l'espace (vent solaire) afin de prédire la tenue des matériaux dans ces environnements extrêmes. La plate-forme JANNuS–Orsay permet le suivi in situ à l'échelle mésoscopique de l'évolution de la microstructure des matériaux pendant l'irradiation.

3. Apport des neutrons

Avec les réacteurs de l'Institut Laue-Langevin (ILL) et du Laboratoire Léon Brillouin (LLB), la communauté scientifique française a accès à des outils de recherche, à base de faisceaux de neutrons, de tout premier plan. Une gamme très complète d'instruments neutroniques – diffractomètres, spectromètres, diffusion à petits angles, neutrons polarisés sont actuellement accessibles. Les recherches répondent à un très large éventail de questions en science fondamentale, dans les domaines les plus variés : biologie, chimie, matière molle, physique nucléaire, science des matériaux, etc.

Un grand projet de source à spallation européenne (European Spallation Source) se développe, porté par un grand nombre de pays européens. Cette nouvelle source aura des caractéristiques exceptionnelles (bruit faible, très haut flux, structure pulsée du faisceau avantageuse pour les grandes longueurs d'onde, sécurité d'exploitation...). Cependant un délai de 10 ans nous sépare très certainement de la mise en exploitation pleine de cette source européenne. Cette période de transition devra être gérée avec prudence afin que la communauté française des neutrons, qui a actuellement une position internationale forte, puisse s'adapter et participer au développement de l'ESS, sans à-coups majeur, tout en continuant son développement scientifique de haut niveau et son rôle dans la formation des futurs utilisateurs.

Pour ce qui concerne les systèmes de la matière molle (suspensions colloïdales, milieux polymériques, cristaux liquides, systèmes tensio-actifs...), les techniques neutroniques concernent soit la caractérisation de la structure par SANS soit le suivi de la dynamique du système par QUENS ou écho de spins.

Ces dispositifs expérimentaux peuvent permettre de suivre les dynamiques de fluides complexes confinés ou proches d'une transition vitreuse sur une gamme de temps de corrélation difficile d'accès, à savoir de la ps à quelques dizaines de ns. Enfin, le développement de l'imagerie de neutrons est à souligner. Elle permet en particulier de visualiser des objets épais -même si la résolution spatiale est moins bonne qu'en imagerie X- laissant ainsi espérer disposer de moyens d'imagerie 3D de systèmes in operando comme les piles à combustibles et aussi suivre les cinétiques de transfert et de réaction au sein de milieux poreux. Ces travaux devront bien évidemment se faire dans le cadre d'une approche multimodale associant d'autres imageries 2D et 3D (TEM, TXM, micro-tomographie rayons-X, microscopie X...).

En science des matériaux, la diffusion neutronique permet de déterminer l'organisation et la dynamique des atomes dans un matériau, d'appréhender les phénomènes électroniques et magnétiques. Complémentaire des techniques basées sur l'interaction de la matière avec les photons (de la lumière visible aux rayons X), les électrons (microscopies et diffraction), la résonance magnétique nucléaire, elle possède de forts atouts liés aux propriétés du neutron. Ses spécificités lui confèrent une place de choix tant pour des études fondamentales de physique de la matière condensée (supraconductivité non conventionnelle, ordre orbital, magnétisme quantique, multiferroïcité) que pour la détermination de la structure et des propriétés dynamiques de nouveaux matériaux fonctionnels.

4. RMN bas champs et techniques de gradients de champ magnétique

La spectroscopie RMN reste un outil essentiel dans l'analyse de la structure et de la dynamique à l'échelle moléculaire. Une grande partie de la communauté développant cet outil se retrouve dans les Instituts de Chimie et des Sciences Biologiques et utilise en général des spectromètres à haut voire très haut champ magnétique.

Dans le cadre du suivi de la dynamique au sein de matériaux multi échelles, une niche reste cependant très active dans notre commission, incluant (i) l'étude de la relaxation RMN à bas champ magnétique (R1, R2), aussi appelée RMND, (ii) le développement des méthodes de gradients de champs pulsés, (iii) les diverses associations de ces deux précédents types d'expérience dans des protocoles RMN dits « 2D ». Ces approches alliant spectroscopie RMN, analyses et modélisations de physique statistique permettent de compléter les études de la dynamique en confinement sur des gammes d'échelles de temps et d'espace qui s'étendent, pour la RMND, de la ns à la microseconde et de quelques angströms à quelques dizaines de nm et, pour les techniques de gradient de champ magnétique, de la ms à quelques secondes et du micromètre au mn. Un domaine connexe bénéficiant de l'utilisation de la RMND concerne l'étude du fonctionnement des agents de contraste moléculaires et/ou nanoparticulaires utilisés en imagerie médicale. Ce sujet à l'interface entre plusieurs disciplines est en forte évolution et appelle une meilleure compréhension des propriétés magnétiques et dynamiques des nanoparticules porteuses d'un moment magnétique en relation avec leur environnement (fluide, cellulaire, membranaire). Ici, la RMND reste un outil de choix.

5. Diffusion de la lumière

Les méthodes de diffusion dynamique de la lumière ont fortement évolué ces dix dernières années, bénéficiant d'une meilleure connaissance de la diffusion de rayonnement en milieu désordonné, du développement d'une instrumentation originale, de nouveaux outils conceptuels d'analyse du signal comme les corrélateurs spatio-temporels à 4 points. La diffusion dynamique de lumière conventionnelle (DLS) sonde la dynamique microscopique des matériaux mous et raisonnablement transparents, en moyennant fortement cette dynamique dans le temps et l'espace, le signal étant échantillonné sur l'ensemble du volume irradié. De nouveaux montages tels que l'imagerie de corrélation de photon (PCI) permettent d'obtenir un suivi du facteur de structure dynamique résolu en temps et en espace. Les progrès actuels de méthodes de diffusion de lumière couplés éventuellement à la microscopie confocale permettent d'étudier l'évolution spatio-temporelle de matériaux mous comme les gels et/ou les verres colloïdaux (colloïdes, émulsion, polymères...) sous contrainte et/ou lors de leur vieillissement. Une meilleure compréhension des processus de rupture, de fluage et de leurs précurseurs permettront de comparer ces matériaux à des systèmes plus durs comme les solides polycristallins.

6. Microscopies
Microscopie électronique

Il y a 10 ans, la commercialisation des premiers correcteurs d'aberration a provoqué une révolution dans la microscopie électronique en transmission (MET). Cet équipement a permis de s'affranchir du principal défaut des microscopes électroniques : l'aberration sphérique importante de la lentille objectif. Non seulement la résolution spatiale des instruments a fait un bond en avant mais d'autres configurations expérimentales sont devenues accessibles. Par exemple, la place libérée entre les pièces polaires de l'objectif a permis l'introduction de porte-objets de plus en plus sophistiqués pour les expériences in-situ, telles que la nano-indentation, la cathodoluminscence localisée, et les observations sous champ électromagnétique ou en cellule liquide. La correction d'aberration a également permis de baisser la tension d'accélération des électrons pour étudier de façon optimale des objets sensibles à l'irradiation tels que les nanotubes de carbone ou le graphène.

L'arrivée des correcteurs d'aberration a coïncidé avec l'essor des nanosciences et des nanotechnologies. Les spectromètres, les détecteurs, l'informatisation des appareils, les porte-objets et les monochromateurs connaissent actuellement des développements très importants. L'arrivée des sources d'électrons pulsées par laser femto-seconde promet de propulser l'étude des phénomènes à des échelles de temps jamais connues auparavant. Et comme pour les autres techniques d'observation, l'accroissement de la puissance des ordinateurs et les progrès du traitement de données ont démultiplié les possibilités d'analyse quantitative des matériaux. On peut citer la spectroscopie des plasmons, la tomographie atomique, l'holographie des contraintes et la cristallographie par diffraction électronique en précession.

Il faut souligner que tous ces développements, instrumentaux et méthodologiques, sont issus de recherches en laboratoire. C'est seulement par la suite qu'ils ont été repris par les constructeurs de microscopes électroniques (le plus souvent via des SME et des startups). Il est donc illusoire d'imaginer que l'industrie assurera le développement de la microscopie et il est crucial de soutenir ces recherches dans les laboratoires et leur transfert technologique ultérieur.

Sonde ionique

La Sonde Atomique Tomographique est un microscope analytique qui permet de dresser une cartographie tridimensionnelle des espèces chimiques présentes dans un matériau à l'échelle atomique, suite à l'évaporation contrôlée des atomes de surface par l'action combinée d'un fort champ électrique statique et d'une impulsion laser ultra brève. Cet instrument, incontournable en métallurgie physique et plus largement aujourd'hui dans les études d'oxydes, de céramiques et de semi-conducteurs massifs ou nanostructurés (nanoélectronique, optoélectronique, optique, spintronique...), est aussi devenu un outil de choix pour l'étude de l'interaction laser/nano-objet. L'étude de l'interaction entre un faisceau laser ultra bref et un matériau sous la forme d'une pointe nanométrique soumise à un champ électrique intense est d'une grande importance dans une large communauté scientifique telle que la communauté de l'imagerie en champ proche par p-STM (photon stimulated scanning tunneling microscopy), la communauté de l'émission d'électrons en régime attoseconde avec le p-EE (photon-assisted electron emission) et plus récemment la communauté de l'imagerie 3D des matériaux à l'échelle atomique.

B. Développements instrumentaux et méthodologiques

Certaines propriétés de la matière ne sont pas accessibles par les moyens expérimentaux existants. Les raisons de ces impossibilités sont diverses et peuvent être liées aussi bien à la dimension des objets étudiés qu'à l'ordre de grandeur de la propriété que l'on désire mesurer. Il est alors nécessaire d'investir dans le développement d'un instrument spécifique. Souvent, cet instrument est à son tour moteur dans l'émergence de nouvelles recherches. Que ce soit à l'échelle d'un équipement de laboratoire ou sur un TGE, ce développement instrumental peut consister en l'optimisation et/ou l'association de techniques existantes sur un même dispositif (ensembles UHV, Compression sous AFM/STM, AFM sous synchrotron, laser pompe-sonde...) ou en l'utilisation de principes physiques nouveaux pour la mesure (imagerie de phénomènes ultra-rapides par des expériences pompe-sonde dans un MET, imagerie de surface grâce à l'holographie utilisant des électrons lents...).

De façon générale il semble se dégager quelques tendances lourdes dans le développement instrumental. Parmi elles, nous avons identifié l'imagerie multi-échelles, l'imagerie 3D, l'accroissement de la résolution spatiale et temporelle, l'intégration de différentes techniques et la poursuite du développement de techniques environnementales permettant en particulier l'exploration des effets de conditions extrêmes de température ou de pression.

Ainsi, l'étude des mécanismes de la plasticité a été rendue possible par le développement d'un dispositif de déformation plastique in situ sous AFM-STM en environnement UHV et à température variable ; les transitions haut spin – bas spin de molécules magnétiques ont pu être étudiées grâce au développement de dispositifs lasers pompe-sonde femtoseconde. Cette expérience permet d'identifier les phénomènes mis en jeu sur des gammes de temps de la pico à la microseconde et ainsi de les attribuer à différents processus (transition d'état magnétique, interactions élastiques, diffusion de chaleur...).

D'autres développements sont en cours et pourront ouvrir la voie à de nouveaux axes de recherche. Ainsi, le développement de l'holographie dans un LEEM permettra de mesurer in situ et en temps réel les évolutions des travaux de sortie, les champs de contraintes ou les champs de fuite à la surface des matériaux. Toujours en microscopie électronique mais dans un MET cette fois, les expériences de microscopie ultra-rapide permettront d'étudier la dynamique des phénomènes physiques.

Les SAT, comme développés à Rouen, vont évoluer en intégrant des moyens de spectroscopie in-situ (spectroscopie optique d'absorption et de photoluminescence et spectroscopie en énergie des électrons et ions émis). Cette intégration permettra d'élargir les performances de la SAT laser qui sera alors capable de fournir des informations optiques à l'échelle nanométrique de l'échantillon sondé, des informations sur les propriétés électroniques de surface et sur la réponse électronique à l'excitation laser.

Pour terminer, notons que le développement instrumental demande un investissement humain important et couvrant de très larges domaines de compétences. Pour les chercheurs, cela peut se traduire par un affaiblissement de la production scientifique mais la section veillera à ce que cela ne soit pas pénalisant pour les intéressés. Il faut noter que ce type de recherche ne pourra se poursuivre que si les laboratoires conservent un personnel technique suffisant et un financement stable sur le long terme. La section s'inquiète de la diminution importante constatée dans ces deux domaines au cours des quatre dernières années.

C. méthodologie en simulation et théorie

L'activité Théorie et Simulations en section 05 épouse les contours et l'étendue des thématiques expérimentales présentées dans ce rapport. Des mécanismes de croissance de nanostructures inorganiques à la rhéologie des fluides complexes, de la théorie des matrices aléatoires pour le transport en milieu désordonné à la plasticité dans les systèmes inhomogènes, les sujets d'intérêts et les méthodologies varient d'une communauté à l'autre. De plus, bien que l'intitulé de la section 05 suggère pour champ d'étude exclusif les propriétés structurales et dynamiques des systèmes « condensés », l'étude des propriétés électroniques, optiques, magnétiques de la matière est également très représentée puisqu'il est difficile de découpler structure et propriétés. Cette diversité de phénomènes physiques et d'objets d'étude entraîne une diversité des compétences et des techniques, entre théorie analytique formelle et expériences numériques.

Alors que les antagonismes passés entre approches analytiques ou numériques s'estompent, la problématique de créer du lien entre toutes les lames du « couteau suisse » théorique et numérique se pose, d'autant plus que la pénurie de poste permet difficilement d'embrasser tous les sujets. À ce titre, l'existence de groupes théoriques constitués, voire de laboratoires dédiés à la théorie, semble être une approche couramment adoptée par une grande partie des laboratoires sans effet notable sur les collaborations théorie/expérience. Les développements analytiques ou numériques, de l'équation sur le papier à l'implémentation efficace dans un code porté sur un supercalculateur massivement parallèle, sont si complexes et le spectre de compétences requises si large qu'un théoricien isolé peinera à avancer suffisamment vite dans un contexte compétitif. Pour prendre l'exemple des « grands » codes ab initio autour de la théorie de la fonctionnelle de la densité (DFT), la communauté est aujourd'hui dominée par quelques grands groupes (Italie, Belgique, Allemagne, Autriche, etc.) rassemblant compétences mathématiques et numériques. Bien qu'au service de la compréhension de phénomènes physiques révélés par l'expérience, le développement théorique et méthodologique reste un enjeu essentiel à mener en parallèle avec les applications.

Pour revenir aux thématiques scientifiques et méthodologiques, et puisqu'il faut bien aborder la diversité par une de ses portes d'entrée, la théorie de la fonctionnelle de la densité (DFT) reste l'approche quantique ab initio la plus utilisée lorsqu'il s'agit d'étudier les propriétés structurales et dynamiques (phonons, dynamique moléculaire) de systèmes comprenant jusqu'à quelques centaines d'atomes. Quelques progrès significatifs ont été réalisés récemment : (a) incorporation des forces de dispersion telle que les forces de van der Waals d'intérêt par exemple pour le graphène, (b) généralisation de l'utilisation des techniques de génération automatique de structure pour la recherche de nouveaux matériaux, (c) incorporation en « standard » dans les codes des termes de couplage électron-phonon pour la supraconductivité, la contribution de la diffusion inélastique à la résistivité des matériaux, ou les temps de vie des états excités.

Bien que souvent utilisée pour avoir une première description des propriétés électroniques des matériaux, la DFT reste un formalisme de l'état fondamental et des techniques plus performantes, de type théorie de perturbation à N-corps (approches GW, Bethe-Salpeter) deviennent presque routinières pour l'étude précise des propriétés électroniques et optiques (excitoniques) de matériaux comprenant jusqu'à une centaine d'atomes.

L'école française des liaisons fortes, avec une paramétrisation issue souvent des calculs ab initio, reste très vivace, avec des groupes importants à Lille, Marseille, Grenoble, etc. qui ont su suivre les évolutions des thématiques, en faisant évoluer les formalismes et les codes pour traiter des problèmes complexes tels que le transport électronique hors d'équilibre dans des transistors ultimes, la génération multi-excitons dans les cellules solaires, ou encore les propriétés électroniques d'isolants topologiques. De fait, nombre de développements méthodologiques dans le domaine ab initio reformulent des travaux effectués en liaisons fortes dans les années 60.

Pour des systèmes de plus grande taille, ou des dynamiques allant au delà de quelques dizaines de picosecondes, la DFT reste très utilisée pour paramétrer un champ de force semi-empirique ou calculer une barrière d'activation à l'aide d'approches de type « bandes élastiques » ou « sauts de bassin ». Ces potentiels empiriques, ou cette cartographie des points cols et bassins d'une surface de potentiel, viennent nourrir des simulations de dynamique moléculaire ou des simulations de type Monte Carlo cinétique à plus grande échelle. De très belles applications aux mécanismes de croissance de nanotubes ou d'îlots en surface, à la mobilité de dislocations pour la plasticité, à l'auto-organisation de films moléculaires en surface, aux propriétés thermodynamiques et cinétiques de gaz adsorbés dans des matériaux poreux illustrent la puissance de ces procédures multi-échelles.

À une échelle « mésoscopique », l'usage de méthodes de dynamique moléculaire classique sur des ordinateurs massivement parallèles permet une description des verres ou des milieux granulaires pour des systèmes comportant beaucoup de particules. Ceci a permis d'élucider les liens entre la transition vitreuse et la transition de « jamming ». L'usage, courant de ce type de simulations permet aussi de mieux comprendre les liens qui existent entre interactions inter-particules et lois de comportement macroscopique. Ces approches sont souvent limitées aux temps courts.

Au contraire, le développement des approches de type « phase field crystal » (champ de phase) apparues en 2004 permet de sonder les évolutions aux temps longs des matériaux, tout en décrivant à la fois les phénomènes élastiques et leur structure atomique discrète. Cependant, seul le comportement moyen est accessible.

À l'échelle macroscopique, pour décrire les phénomènes de croissance, les approches de type champ de phase sont devenues d'usage courant et la recherche s'oriente vers le développement de modèles quantitatifs afin de pouvoir utiliser les données des tables thermodynamiques ou des modèles permettant la description de plusieurs effets physiques (écoulement, élasticité, etc.). La relative facilité technique de mise en œuvre de ces approches a fait que des applications à des domaines aussi divers que les écoulements multiphasiques, la fissuration, la dynamique de dislocation, de marches atomiques, ont été proposées. Dans tous ces cas, bien que l'énoncé du problème soit simple, la mise en place d'un modèle satisfaisant d'un point de vue quantitatif nécessite des développements méthodologiques significatifs impliquant calculs analytiques et numériques.

Pour accéder aux propriétés mécaniques des matériaux à l'échelle mésoscopique une problématique similaire est posée. En effet, on s'attache à caractériser l'influence de défauts microscopiques tels que les dislocations, les joints de grains, les macles ou les fissures sur la tenue mécanique des structures étudiées que ce soient par exemple des plots ou des lignes pour les surfaces structurées ou bien des nano-particules ou nano-précipités lorsqu'il s'agit de structures en volume. Une fois les propriétés élastiques locales déterminées, leur organisation spatiale connue et les effets de taille pris en compte, ces problèmes fondamentaux peuvent en partie être abordés dans le cadre de la théorie de l'élasticité. Les codes de dynamique discrète de dislocations (DDD) couplés à des codes d'éléments finis (EF) permettent en effet d'étudier le comportement d'un grand nombre de dislocations et d'établir à partir de leurs mouvements collectifs, des lois de comportement à l'échelle macroscopique pour les matériaux ainsi que de caractériser leur microstructure.

En ce qui concerne le délaminage des interfaces, la propagation des fissures et les phénomènes de rupture et de cloquage de films minces et de matériaux revêtus, des simulations par éléments finis basées sur la théorie élastique de Föppl von Kàrmàn des plaques minces initialement développée pour des structures macroscopiques sont actuellement menées afin d'identifier les paramètres critiques (contraintes, épaisseurs) susceptibles de contrôler la stabilité des structures. Ces simulations effectuées à l'échelle mésoscopique couplées à des simulations de dynamique moléculaire effectuées à l'échelle microscopique devraient permettre d'intégrer les phénomènes de pliures plastiques et d'émission de dislocations dans les interfaces ainsi que de caractériser l'influence des marches atomiques sur le cloquage de matériaux revêtus.

Enfin aux plus grandes échelles (propagation d'ondes en milieux complexes entre autres), dans les cas où la géométrie est simple, les approches de type éléments finis restent optimales et bénéficient de développements constants adaptés aux évolutions matérielles (calcul massivement parallèle, GPU).