Rapport de conjoncture 2019

Section 13 Chimie physique, théorique et analytique

Composition de la Section

Philippe Hapiot (président de Section), Aurélien de la Lande (secrétaire scientifique), Marie-Laure Bocquet, Agnès Bussy, Michel Caffarel, Nicolas Clavier, Olivier Donard, Tioga Gulon, Petra Hellwig, Alexander Kuhn, Jean-Christophe Lacroix, Guillaume Laurent, Adèle Laurent, Sophie Lecomte, Frédérique Loiseau, Jean-Pierre Malval, Arnaud Marquette, François Maurel, Antonio Monari, Marc Simon, Caroline Tokarski.

Résumé

Le domaine d’expertise de la section 13 est comme l’indique son intitulé la physico-chimie, discipline qui couvre de larges domaines disciplinaires situés à l’interface de la chimie et de la physique. Ce rapport de conjoncture rédigé par les membres de la section fait un point sur les avancées et points qui semblent les plus prometteurs pour les prochaines années.

Introduction

Le domaine d’expertise de la section 13 est la physico-chimie, discipline qui couvre de larges domaines disciplinaires à l’interface de la chimie et de la physique. De ce fait, la section 13 rassemble des compétences très diverses permettant d’aborder les problématiques avec une vision qui n’a rien à envier à celle d’une section interdisciplinaire. Nous explorerons dans ce rapport divers domaines allant de la chimie théorique, les spectroscopies, l’électrochimie, la photochimie et jusqu’aux sciences analytiques et leurs applications vers l’environnement et la radiochimie.

Le rapport est organisé par sous domaines :

– La chimie théorique, qui met en œuvre des méthodes mathématiques traduites en algorithmes et implantées dans des programmes informatiques, vise à comprendre, interpréter et prédire les propriétés spatiales et dynamiques de la matière à l’échelle atomique.

– La spectroscopie et la photochimie sont deux domaines fortement interdisciplinaires se situant à l’interface de la physique, la biologie et la chimie.

– L’électrochimie joue un rôle crucial, dans de nombreux domaines scientifiques, allant de la chimie à la physique en passant par les nanosciences et la biologie.

– La chimie analytique qui a pour objet l’identification, la caractérisation et la quantification des substances chimiques ou biochimiques et qui se base sur une forte composante fondamentale pour ses futurs développements mais aussi sur de la recherche instrumentale, intimement liée à des développements méthodologiques.

– La radiochimie repose sur l’étude des propriétés physico-chimiques des radionucléides.

Compte tenu de la diversité des domaines, ce rapport de conjoncture ne prétend pas présenter une vision exhaustive de l’ensemble de ces domaines. Nous avons choisi de mettre en avant les thématiques qui au cours de notre travail de section sont apparues comme évoluant rapidement ou susceptibles de présenter des enjeux majeurs.

I. Chimie Théorique

La chimie théorique se situe à la croisée de la chimie, de la physique, des mathématiques appliquées, des sciences numériques et de l’information, ainsi que de l’informatique. Le succès de la discipline a entraîné son évolution récente et le développement d’applications sans cesse plus réalistes, ce qui exige une expertise croissante dans des domaines aussi divers que la biologie, les sciences des matériaux ou celles de l’environnement ou de l’énergie, pour ne citer que les plus importants. On assiste à une extension du périmètre du champ d’activité et des compétences du chimiste théoricien, avec les opportunités qui en découlent, notamment en termes de formation des jeunes et d’interdisciplinarité. Les défis posés par les systèmes complexes appellent également une mise en question de la distinction traditionnelle entre théorie et applications en chimie théorique. En effet, la résolution des problèmes scientifiques complexes au delà de l’état de l’art est rendue possible par des développements méthodologiques originaux favorisant l’émergence et l’interprétation de nouvelles observations expérimentales. Les défis à relever se nourrissent donc mutuellement à l’interface entre les applications et la théorie. Ainsi, la différence entre deux communautés qui étaient récemment identifiables s’estompe.

A. Impacts et enjeux

Le développement d’applications à fort impact scientifique et technologique a été rendu possible par la définition de protocoles de modélisation et de simulation bien établis. Ils combinent des modèles théoriques préalablement calibrés sur des données expérimentales et par des logiciels performants grandement diffusés et validés par la communauté internationale. La chimie théorique permet alors la réalisation de véritables expériences numériques in silico. Cela rend possible, entre autre, l’interprétation voire la prédiction de données expérimentales atteignant une résolution au niveau atomique et électronique, ainsi que l’exploration de régimes difficiles à atteindre par l’expérience. Cependant, la nécessité de considérer de façon critique les domaines de validité et les niveaux d’approximation utilisés s’impose, comme pour toute discipline scientifique. Cette exigence est couplée avec le besoin constant d’amélioration des méthodes pour reproduire les situations pour lesquelles les modèles actuels sont inopérants ou trop imprécis ; le développement méthodologique dans tous ces aspects reste donc un enjeu majeur de la discipline. Dans un panorama qui privilégie de plus en plus les applications à fort impact sociétal, un regard critique sur les limites des méthodes de modélisation et de simulation et leur amélioration doit donc être soutenu.

B. Traitement de la complexité

Au vu de l’évolution de la chimie théorique vers des applications plus réalistes, la notion d’approches multi-échelles devient cruciale permettant, notamment, la description des systèmes allant des atomes aux agrégats macromoléculaires et aux systèmes mésoscopiques, tout en prenant en compte à la fois la structure électronique, son évolution et les propriétés structurales et dynamiques. La description de la complexité des systèmes, des phénomènes, des environnements et de l’évolution temporelle devient de plus en plus prégnante et centrale. Toutefois la complexité traitée à l’aide d’approches multi-échelles demande des développements innovants à chacun des niveaux.

Les méthodes de la chimie quantique reposant sur la densité électronique (DFT) ou sur la fonction d’onde, incluant le cas échéant les effets relativistes, sont au cœur de nombreuses applications et doivent continuer à être développées. Par exemple, la DFT qui est l’une des approches permettant d’étudier des systèmes de tailles difficilement abordables autrement est toujours confrontée à des situations critiques (e.g. états excités multiples en photochimie, des matériaux fortement corrélés, etc.). Les efforts visant à introduire la corrélation statique, qui est le maillon faible de la DFT, gardent donc toute leur importance, par exemple, les développements des théories à séparation de portée ainsi que des méthodes hybrides DFT/fonctions d’onde. Concernant les méthodes d’interaction de configuration et ses nombreuses variantes, on assiste à une véritable efflorescence d’approches nouvelles basées sur des représentations alternatives de la fonction d’onde (e.g. matrix product state ou tensor network representation) ainsi que d’algorithmes sophistiqués de sélection de configuration aux performances inégalées. Au-delà, toujours dans la perspective de simuler de très grands systèmes sur des échelles temporelles longues, les méthodes semi-empiriques comme la DFT-Tight Binding ou la DFT moléculaire sont en plein essor.

La description de la structure des systèmes macromoléculaires passe aussi par l’utilisation de champs de forces classiques ; au niveau tout-atome en particulier polarisable, ou de type gros-grains. La communauté est fortement impliquée dans l’élaboration de ces approches.

La complexité des systèmes nécessite un traitement différencié suivant les échelles d’espace considérées. Dans ce cadre les méthodes hybrides de type QM/MM ou l’« embedding quantique » gardent toute leur importance et appellent encore à des développements importants au niveau des champs de forces ou du couplage entre les différents niveaux quantiques.

La modélisation de systèmes complexes tendant à être de plus en plus réalistes est liée au développement de méthodes efficaces d’échantillonnage des surfaces d’énergie libres et de dynamiques biaisées aux niveaux quantique, classique ou hybride. Le problème général de l’échantillonnage d’évènements rares et de l’estimation des barrières d’énergie libre (réactions chimiques, changements conformationnels et structuraux de grandes ampleurs dans les biomolécules, les matériaux et interfaces) peut être considéré comme un problème encore non entièrement résolu en dépit des avancées considérables effectuées notamment par la communauté française. Un des problèmes les plus importants concerne la définition sans a priori des variables collectives pouvant décrire le problème d’intérêt. Différentes méthodes s’appuyant sur les techniques d’apprentissages automatiques développées dans le cadre de l’intelligence artificielle apparaissent dans la littérature depuis quelques années et se doivent d’être activement poursuivies.

C. Quelques illustrations de la complexité

Sans prétendre à l’exhaustivité, nous illustrons la complexité dans trois domaines couverts par la section 13.

La modélisation des matériaux et de leurs propriétés réalise des percées, souvent issues d’études combinées théoriques et expérimentales. Ces matériaux se déclinent en matériaux bi-dimensionnels, en MOFs (Metal Organic Frameworks), en oxydes complexes pour les matériaux d’électrodes, en pérovskites pour le photovoltaïque, en matériaux pour le transport à l’échelle de jonctions moléculaires ou en matériaux poreux pour le stockage de l’énergie. Le principal défi est de décrire et comprendre ces matériaux in operando. Cela implique de modéliser l’interface avec un autre milieu moins dense (e.g. électrolyte, liquide ou gaz) et/ou subissant l’action d’un stimulus extérieur comme un champ électromagnétique, une différence de potentiel électrique ou chimique ou encore une variation de pression. Une autre frontière est la modélisation réaliste de la croissance des nanoparticules, en particulier métalliques, des phénomènes électroniques qui peuvent s’y produire et qui posent des difficultés redoutables.

La communauté française continue d’être extrêmement active dans le domaine de la photochimie et de la photophysique théoriques, appliquées à la biologie, à la chimie organique et inorganique et au domaine des nanomatériaux. La simulation de l’évolution temporelle des systèmes dans les états excités à l’échelle femtoseconde a donné lieu à des avancées importantes dans le développement des algorithmes de propagation rendant compte du couplage non-adiabatique électrons/noyaux, de cohérences quantiques entre états et d’effets topologiques fins apparaissant au voisinage d’intersections coniques. La prochaine frontière se situe dans le domaine de l’attoseconde. Cette échelle temporelle laisse entrevoir des perspectives fascinantes comme, le contrôle ou le suivi temporel des réactions chimiques par des impulsions ultra-brèves. Cependant, d’un point de vue méthodologique beaucoup reste à faire dans le domaine de la photochimie in silico. Il s’agit en particulier d’élaborer des méthodes précises, fiables et efficaces de calcul des surfaces d’énergie potentielle des états excités et des couplages entre états.

Les méthodes théoriques sont poussées dans leurs limites pour répondre à des questions importantes de biologie moléculaire. Cela inclut les mécanismes moléculaires expliquant l’allostérie, la machinerie biomoléculaire régulant les voies de signalisation, le métabolisme énergétique ou la régulation de l’expression des gènes (e.g. ATP synthase, ADN nucléosomal, photosynthèse, transporteurs et récepteurs transmembranaires, protéines de transferts d’électrons…). Les progrès des algorithmes et du traitement de données permettant notamment le traitement de systèmes ou d’environnements très encombrés augurent d’avancées conceptuelles dans la compréhension des réseaux complexes d’interactions de biomolécules (membranes/protéines, protéines/protéines, ADN/protéines…), de leurs modulations et de leurs dynamiques.

D. Développement logiciel et formation

La mobilisation en parallèle d’un nombre toujours plus important de cœurs de calculs, (on atteint maintenant le million), ou encore l’utilisation massive de processeurs graphiques (GPU) permettent d’aborder des problématiques nouvelles. Il devient néanmoins crucial que les algorithmes gèrent de façon optimale la puissance de calcul et la mémoire pour tirer pleinement partie des architectures hautes performances.

À titre d’exemple des simulations de dynamique moléculaire classique de systèmes biologiques, de matériaux ou d’interface couvrant les échelles micrométriques et de la microseconde sont aujourd’hui réalisées dans les laboratoires du CNRS.

Il devient essentiel d’amplifier l’adaptation des méthodes, des algorithmes et notamment les codes de la chimie quantique aux calculs haute performance. Pour autant, des avancées importantes ont été réalisées dans le cadre des algorithmes basés sur les méthodes de l’algèbre linéaire. Parallèlement, et comme annoncé dans le rapport de 2014, le développement des méthodes stochastiques particulièrement bien adaptées au calcul massivement parallèle, s’est en effet accéléré depuis lors et des versions stochastiques de plusieurs méthodes de la chimie théorique ont par exemple été proposées.

À la différence d’autres disciplines, comme la physique ou les mathématiques appliquées, la communauté de modélisation et de simulation moléculaire concentre ses efforts dans un nombre des codes internationaux largement diffusés et optimisés incluant des fonctionnalités multiples. Cette stratégie est de nature à nuancer le constat établi dans le rapport de 2014 « … Le constat est cependant moins glorieux en matière de valorisation puisque les codes de calculs commerciaux basés en partie sur les avancées méthodologiques françaises et aujourd’hui disséminés à l’échelle internationale n’ont toujours pas de licence française… ». En effet, il existe en France une activité importante et de grande qualité de co-développement de grands codes internationaux. Afin de rendre ces efforts de développement logiciel plus visibles il est nécessaire d’en établir une cartographie nationale et de s’interroger sur le positionnement de notre communauté. Historiquement, la plupart des codes ayant pris une envergure internationale sont issus de travaux méthodologiques disruptifs ayant ouvert la voie au traitement de systèmes et de problématiques auparavant inaccessibles à la modélisation théorique. Pour l’avenir une démarche à préconiser pour rester à la pointe des développements consistera à repérer et favoriser les ruptures méthodologiques et y concentrer des moyens importants, notamment en termes d’ingénieurs logiciels.

Des propositions de formations pluridisciplinaires intégrant les dimensions chimie et informatique sur cet enjeu stratégique pourraient être faites. Dans cet esprit la création d’un programme ambitieux permettant le développement de logiciels adaptés aux architectures hautes performances actuelles doit être soutenue.

E. Emergence des données massives

La génération massive de données soulève de nombreux défis de nature technique et scientifique : gestion, stockage et sécurisation des données d’une part, exploitation des données pour en extraire des informations pertinentes d’autre part.

À cet égard une partie de la communauté développe des techniques de visualisation innovantes dépassant le simple rôle de l’illustration scientifique pour devenir un outil de découverte de processus complexes presque impossibles à extraire autrement des données brutes des simulations massives. Dans la même veine, l’exploitation des très grands ensembles de données issues des simulations numériques par des méthodes d’intelligence artificielle, d’apprentissage automatique (machine learning), de traitement des données massives (big data) etc. est un domaine actuellement très actif en chimie théorique. La concrétisation de ces potentialités passera à n’en pas douter par des avancées conceptuelles nourries de collaborations avec d’autres disciplines familières du traitement de l’information, des analyses d’image et des inférences statistiques. Dans ce contexte les liens entre la section 13 et la CID 51 trouvent par exemple toutes leurs pertinences.

II. Spectroscopie Photochimie

L’interaction entre la lumière et la matière peut être caractérisée par différentes méthodes (spectroscopie) pour comprendre les mécanismes en jeu ou bien être utilisée pour induire des transformations chimiques (photochimie) agissant ainsi comme déclencheur. La communauté scientifique regroupant la spectroscopie et la photochimie se porte plutôt bien. Les efforts mis dans les développements de nouveaux matériaux hybrides couplés aux développements instrumentaux permettent de répondre aux différents enjeux sociétaux. Au cours de ces dernières années, un fort développement des sources lumineuses et des appareillages d’analyse a permis l’accès à de nouvelles échelles temporelles et un gain accru en sensibilité et en sélectivité. Ces évolutions se sont également appliquées aux grandes installations de recherche qui gagnent en cohérence et en brillance. Grace à ces évolutions, la spectroscopie et la photochimie peuvent répondre plus efficacement aux défis sociétaux notamment en environnement, biologie, énergie et santé.

A. Nanoparticules, LED organiques et inorganiques

L’avènement des nanotechnologies s’inscrit dans le développement de nouveaux objets photo-activables associés à la notion de confinement spatial. Les nanoparticules inorganiques, organiques ou hybrides constituent un exemple fondateur de ce principe permettant d’établir des relations dimension-propriétés photo-physiques pertinentes. Le couplage plasmon de surface de nanoparticules métalliques et relaxation électronique d’états excités en surface conduit à des effets d’exaltation ou d’annihilation dramatique. Un des enjeux actuels consiste à adresser ces couplages pour le développement de senseurs à haute sensibilité ou la mise au point de photo-matériaux à réactivité exaltée. Les dispositifs intégrés que constituent les nanoparticules tout organiques sont également en plein développement grâce à des procédés simples et efficaces de fabrication tels que la photo-fragmentation ou la reprécipitation. Ces nanoparticules organiques offrent également un fort potentiel technologique en imagerie 3D haute résolution spatiale car elles constituent des objets prometteurs pour la modulation des dynamiques de diffusion d’excitons contrôlant le mécanisme de blinking de la nanoparticule. Dans d’autres champs d’amplification, certains processus primaires photo-induits tels que la fluorescence retardée thermiquement ou l’annihilation Triplet-Triplet connaissent un regain d’intérêt en particulier pour les matériaux OLED dans un contexte de développement des technologies à très basse consommation d’énergie.

B. Développements pour des descriptions à haute résolution spatial

Les spectroscopies optiques permettent de sonder la matière en utilisant l’interaction lumière/matière. Ces technologies sont fortement interdisciplinaires, en interface avec la physique (pour des développements instrumentaux importants), la chimie pour le développement de sondes et la biologie pour répondre à des problématiques sociétales (cancer, maladies neurodégénératives etc.). Ces dernières années le développement des techniques de super résolution en microscopie de fluorescence (STED, PALM, STORM) a permis de lever le verrou de la limite de diffraction. Des objets fluorescents peuvent être observés au sein de cellule et tissus biologiques avec des résolutions spatiales de l’ordre de 20 nm à 50 nm par détection de molécules uniques. Couplés à des techniques résolues en temps, ces développements permettent ainsi de suivre la dynamique des processus biologiques.

Les spectroscopies optiques vibrationnelles de diffusion Raman et d’absorption infrarouge, étaient jusqu’à récemment limitées en terme de résolution spatiale par la limite de diffraction. Des technologies nouvelles (SERS et SEIRAS) améliorent notablement la sensibilité de détection sans influence sur la résolution. Ces techniques permettent actuellement d’obtenir des résolutions spatiales identiques à celles obtenues par les techniques de super résolution en fluorescence. Le couplage de la microscopie à force atomique avec la diffusion Raman exaltée de surface, a permis le développement du TERS (Tip-Enhanced-Raman Scattering). La métallisation de la pointe AFM permet d’obtenir l’amplification de la diffusion Raman. Les applications sont nombreuses : études de processus catalytiques, électrochimie, caractérisation de matériaux ou de biomolécules (ADN, protéines amyloïdes) à des résolutions spatiales de 20 à 50 nm. La seconde technique qui reste encore très peu développée en France, même si son inventeur est un enseignent-chercheur français, est la technologie du NanoIR, couplage entre l’AFM et le rayonnement IR. Le rayonnement IR sur l’échantillon induit son expansion thermique qui est sondée par la pointe AFM, la transformé de Fourier du signal obtenu correspond au spectre d’absorption infrarouge de l’échantillon sondé à la résolution de la pointe AFM (20 nm). Cette technologie non destructive a un potentiel d’application dans tous les domaines de la chimie.

Le challenge pour les prochaines années est de développer ces techniques d’imageries de haute résolution spatiale en milieu liquide, pour la description à l’échelle moléculaire de processus chimiques ou biologiques à très haute résolution spatiale (quelques 10 nm).

C. Développements pour des descriptions à haute résolution temporelle

Le fort développement des sources d’excitation a mis en avant la possibilité de suivre à la fois des réactions élémentaires ultra-rapides et le suivi temporel de réactions complexes.

Attochimie. La science à l’échelle de l’attoseconde est un domaine de recherche émergeant utilisant des sources laser pulsées de quelques attosecondes grâce à la génération d’harmoniques élevées. Cette spectroscopie de type pompe-sonde ouvre la voie à l’étude de la dynamique moléculaire à des échelles de temps sub-femtoseconde permettant de suivre les mouvements des électrons au cours des réactions chimiques. Elle peut être appliquée aux ions, atomes, molécules ou surfaces, en chimie, photochimie ou astrochimie. La spectroscopie attoseconde est souvent couplée à une étude théorique complémentaire aidant à rationaliser les résultats.

TD-THz. L’attention se porte sur le domaine des grandes longueurs d’onde du lointain infrarouge. Cette gamme spectrale met en jeu des énergies faibles d’ondes non-ionisantes. L’amélioration des sources et des détecteurs de THz a permis d’accroitre les applications au monde du vivant ou à la détection de gaz. Le domaine THz permet de caractériser des mouvements collectifs de molécules impliquant des centaines d’atomes sur une échelle de temps variant de quelques femtosecondes à la nanoseconde.

Spectroscopie ultra-rapide 2D-IR/UV-vis. Cette méthode utilise des lasers avancés pour générer des spectres multidimensionnels avec une résolution temporelle de l’ordre de la femtoseconde. Elle est adaptée à la détection d’espèces transitoires formées au cours des réactions de processus biologiques tels que la liaison protéine-ligand ou le repliement des protéines. La haute résolution temporelle permet l’observation de processus ultra-rapides sur des systèmes en solution, en couche mince et à des mécanismes de réaction. Les spectroscopies 2D résolues dans le temps ont connu une extension au domaine du visible et plus récemment du proche UV.

Spectroscopie Chirped-pulse. Les études de réactivités en astrochimie connaissent un développement instrumental notable par le biais de la spectroscopie micro-onde à dérive de fréquence (dite « chirped-pulse »). Cette technique permet la détection et le suivi cinétique de réactifs et de produits in situ sensibles en un seul balayage en fréquence en conservant une haute résolution spectrale.

D. Vers des méthodes plus sensibles, sélectives

RPE. La spectroscopie de Résonance Paramagnétique Électronique (RPE) s’applique à l’étude de systèmes extrêmement variés de l’échelle moléculaire aux échelles nanométriques jusqu’à l’imagerie, technique pour laquelle la France est particulièrement pionnière. Aujourd’hui la communauté a développé des techniques in operando combinant d’autres techniques permettant l’étude de systèmes complexes tels que des catalyseurs en phase homogène, des matériaux pour le stockage de l’énergie, ou des objets archéologiques. L’association nationale regroupant les utilisateurs de la RPE (ARPE) a permis de hisser la France en termes d’équipements au niveau de ses voisins européens, voire mondiaux offrant ainsi à la communauté des chercheurs français l’accès à des techniques de pointe (spectromètres & méthodologies) mais aussi à une expertise scientifique unique dans tous les champs disciplinaires. Cette structuration s’est également traduite par une amélioration du fonctionnement des laboratoires et de leurs liens et interactions, entre autres grâce au soutien de leurs tutelles (y compris le CNRS) en personnels techniques et chercheurs/enseignants chercheurs.

À court et moyen terme, il est important de souligner que des responsables scientifiques de nombreux laboratoires français ayant une expertise internationale reconnue en RPE vont partir à la retraite au cours de ces prochaines années, conduisant indéniablement à une fragilisation de l’ensemble de la communauté.

RMN-DNP. La spectroscopie RMN, parce qu’elle permet de sonder l’environnement local des atomes en chaque site, est un outil d’analyse incontournable pour de la recherche de pointe en chimie, en biologie, en médecine ou en physique. Ainsi les systèmes étudiés par RMN couvrent des domaines d’étude allant de petites molécules organiques dans des mélanges complexes à des polymères solides de plusieurs méga-daltons, de matériaux nano-structurés inorganiques ou hybrides à des biomolécules en solution ou en phase solide, de métabolites dans des fluides ou tissus biologiques à des organismes vivants, de l’imagerie du corps entier à la spectroscopie in vivo localisée.

Des avancées récentes en termes de méthodologie et d’instrumentation révolutionnent aujourd’hui cette spectroscopie et accroissent de manière inédite son potentiel pour lever des verrous analytiques clés. En particulier, l’introduction de champs magnétiques élevés, de sondes de rotation de l’échantillon à très haute vitesse, de séquences d’impulsions sophistiquées, de techniques d’hyperpolarisation bouleversent les horizons de cet outil en augmentant de façon considérable tout à la fois sa sensibilité et sa résolution.

E. Chimie et grandes installations de la recherche

La communauté des chimistes utilisant les grandes installations de la recherche est de plus en plus nombreuse. L’évolution permanente des sources accessibles permet des avancées dans de très nombreux domaines scientifiques et d’applications. Dernièrement, des résultats significatifs ont été obtenus en catalyse, électrochimie, structure, environnement, chimie analytique, dans le domaine du patrimoine, de la chimie-physique en phase gazeuse ou condensée, du domaine des agrégats et des nanoparticules, de la matière molle, des batteries, de l’imagerie 3D à l’échelle nanométrique.

Le Rayonnement Synchrotron offre de multiples possibilités aux chimistes : que ce soit avec des techniques d’absorption, de diffraction, de microscopie, de photoémission ou d’émission, les techniques développées sont en plein essor dans ces différents domaines. Des informations résolues en temps à la picoseconde et un gain très important en cohérence et brillance seront utilisables dès 2020 à l’ESRF et, on l’espère, bientôt à SOLEIL.

L’avènement récent des XFEL en Europe et dans le monde ouvre la voie à des expériences innovantes qui tirent parti de la brillance extrême et de la possibilité de réaliser des expériences résolues à la femtoseconde. Le développement de ce type d’expérience en chimie permettra l’obtention de résultats à fort impact.

La communauté française utilisant la diffraction par les neutrons est en profonde mutation. L’ouverture d’ici quelques années de la source européenne à spallation (ESS) à Lund en Suède permettra des expériences impossibles jusqu’à maintenant. La fermeture du réacteur Orphée fin 2019 a signé la fin des expériences au Laboratoire Léon Brilllouin (LLB), actuelle source nationale de neutrons. Notons qu’il n’existera donc plus de source nationale en 2020, la communauté française pouvant utiliser la source européenne située à Grenoble, L’Institut Laue Langevin (ILL).

F. Risques et atouts

Bien qu’elles soient par essence interdisciplinaires, la spectroscopie et la photochimie sont bien structurées au niveau national. On peut citer la Division Chimie Physique (DCP) qui fédère la communauté à travers plusieurs subdivisions comme la Spectroscopie Optique et Neutronique, le Magnétisme & la Résonance Magnétique ou encore la subdivision Photochimie, Photophysique et Photosciences. La présence de plusieurs GDR aide aussi à structurer les échanges au sein de la communauté. La spectroscopie et la photochimie possèdent également une forte visibilité internationale notamment grâce aux grandes infrastructures de recherche et au fort développement instrumental.

Malgré cette synergie positive, le renouvellement de la communauté n’est pas équilibré d’un point de vue thématique. Il a été souligné que le domaine de la RPE allait nécessiter, dans les années à venir, une attention particulière afin de conserver son expertise pour laquelle la France est reconnue. Cette difficulté de renouvellement est malheureusement aggravée par la chute constante des recrutements. Enfin, il convient de noter que l’aspect de plus en plus applicatif de nombreux projets et financements, ce qui est positif en soit, ne se transforme pas à moyen terme en « prestation de services » et ne conduise à l’appauvrissement du savoir-faire fondamental et de développement instrumental de nos disciplines.

III. Électrochimie

Le rôle de l’électrochimie a été parfaitement exprimé par un « editoral » du journal américain ACS Nano en 2016 : « This is the golden age of electrochemistry. Never before has this discipline found itself at the nexus of so many developing technologies ». Cette renaissance est, entre autres, due au fait qu’elle permet de contrôler très finement un grand nombre de processus, allant de l’analyse à la synthèse moléculaire ou de matériaux, de l’échelle macroscopique à l’échelle nanométrique. Les technologies appliquant l’électrochimie à des sujets liés à l’énergie, la déionisation capacitive de l’eau, les capteurs et les actionneurs électrochimiques font aussi l’objet d’une large exploration, et l’utilisation de méthodes électrochimiques pour la fabrication de composants électroniques, les revêtements et la synthèse de matériaux est plus importante que jamais. Le domaine est en train de devenir une priorité internationale et une abondance de fonds de recherche a été dégagée à l’échelle mondiale pour l’électrochimie appliquée. Bien que sa position soit centrale à de nombreux travaux de recherche et qu’il existe une communauté française très bien structurée, au travers notamment du groupe d’électrochimie de la Société Chimique de France, du groupe français de bioélectrochimie, ou de l’action motrice des GDR, du réseau RS2E et de l’organisation de conférences (Elecnano, Journées d’électrochimie…) on peut regretter qu’elle continue de souffrir en France, contrairement à d’autres pays, d’un manque de financements ciblés, si on fait abstraction des actions phares dans le domaine du stockage et de la transformation d’énergie.

A. Électrochimie moléculaire

Une grande partie des activités dans le domaine de l’électrochimie moléculaire est actuellement orientée vers, et stimulée par des enjeux d’énergies renouvelables ou des défis environnementaux. Que cela soit par exemple l’électrolyse ou la photoélectrolyse de l’eau afin de produire sans surtensions (et coûts) excessives de l’hydrogène, ou le recyclage du CO2 en molécules utiles, les outils développés ces dernières années d’un point de vue expérimental et théorique sont devenus indispensables pour progresser par rapport à ces enjeux sociétaux. L’électrocatalyse moléculaire a fait des progrès considérables en ce qui concerne la compréhension des mécanismes réactionnels et par conséquent se focalise de plus en plus sur la prédiction et le design rationnel de structures ou édifices moléculaires plus efficaces et plus stables, souvent avec une philosophie biomimétique pour l’activation de petites molécules. L’immobilisation de biocatalyseurs ou de catalyseurs biomimétiques sur substrats semiconducteurs, capables de photosynthèse artificielle, est un axe à développer, conjointement avec les études sur le transfert d’électrons au sein de macromolécules biologiques. À l’échelle internationale on note aussi une certaine renaissance de l’électrosynthèse organique, à comprendre en partie dans le contexte des idées de développement durable, mais cette tendance n’est pas très suivie en France.

En termes de méthodologie, le couplage de l’électrochimie avec d’autres types de mesures continue à prospérer. Par exemple des activités combinant la stimulation photo- et électrochimique sont de plus en plus abondantes. Elles ouvrent des opportunités uniques vers des approches de double détection à des échelles de temps ultracourtes (nanosecondes) ou dans des espaces confinés.

Une approche développée ces dernières années est l’électrochimie bipolaire, avec des déclinaisons dans plusieurs domaines d’application, allant de la chimie des matériaux jusqu’aux actionneurs en passant par la chimie analytique. Des chercheurs de la communauté française sont moteurs dans ce domaine en expansion et explorent les différentes opportunités uniques offertes par cette version « sans fil » de l’électrochimie.

B. Électrochimie et nanosciences

L’avantage unique de certains outils électrochimiques d’être miniaturisables presque à volonté confère à cette discipline un rôle important également dans le domaine des nanosciences. L’émergence récente de véritables nano-électrodes, permettant d’accéder à des mesures à des échelles ultimes, y compris à l’intérieur de cellules vivantes ou de synapses, constitue une avancée majeure. La structuration de l’interface électrode/électrolyte à l’échelle nanométrique voire moléculaire, reste une activité importante de la communauté française. Le greffage de monocouches moléculaires, de couches ultraminces de 2 à 20 nm d’épaisseur, multifonctionnelles, nanostructurées et souvent greffées de manières covalentes aux substrats est un thème qui continue à progresser en termes de versatilité des fonctions et qui impacte de nombreux domaines (électronique moléculaire, capteurs, electro- et photo-catalyse). Les méthodes électrochimiques de modification de surfaces apparaissent dans bien des situations comme plus avantageuses que le dépôt de couche mono moléculaire par auto-assemblage car plus robustes. À une échelle légèrement plus grande, on peut mentionner aussi des travaux visant à élaborer des surfaces d’électrodes avec une porosité contrôlée afin de mieux maîtriser et optimiser leur activité, y compris l’impression d’informations moléculaires dans ces matrices à haute surface active. Les substrats ainsi obtenus ont une utilité dans pratiquement tous les autres domaines abordés dans ce rapport.

Notons également le développement du microscope électrochimique à balayage qui a permis ces dernières années l’étude de nanoparticules individuelles par la technique de nano-impact mais également les études de la réactivité électrochimique d’atome ou de molécule unique ainsi que la fabrication et l’étude de jonctions métal/molécule/métal impliquant moins d’une centaine de molécules redox actives ou la fabrication de commutateur atomique. Il est important de noter que l’électrochimie continue sa progression dans le domaine de l’électronique ou parmi les principales technologies de mémoires émergentes, les mémoires résistives basées sur des réactions électrochimiques localisées générant des filaments conducteurs dans des électrolytes solides à base d’oxyde ou de sulfure ou dans des électrolytes polymères sont considérés par l’ITRS (International Technology Roadmap for the Semi-conductor Industry) comme susceptibles d’être commercialisées dans les cinq prochaines années. Rappelons ici que le remplacement des technologies mémoire actuelles (disque dur et mémoire flash) constitue un enjeu d’économie d’énergie majeur de nos sociétés numériques. Dans ce contexte, la compréhension des phénomènes redox dans des nanogaps de quelques dizaines de nanomètres séparant deux électrodes, au sein de nano-pores et d’une manière générale dans des milieux confinés est très certainement un enjeu important de la prochaine décennie.

C. Électroanalyse et bioélectrochimie

Le caractère particulier des phénomènes à l’interface électrode-solution et la diversité des approches électrochimiques autorisent un vaste champ d’applications dans le domaine de l’analyse. Bien qu’historiquement l’électrochimie permette d’utiliser à cette fin déjà plusieurs concepts complémentaires (potentiométriques, conductimétriques, voltampérométriques et ampérométriques), d’autres modes de transduction comme par exemple l’électrochimiluminescence (ECL) ou le couplage avec des phénomènes de fluorescence ou le développement de transistors organiques à grille electrolytique parfois imprimés, se sont rapidement développés ces dernières années. Afin d’améliorer la sélectivité des électrodes, il est souvent nécessaire de procéder à une fonctionnalisation de la surface, soit par des récepteurs (artificiels ou biologiques) soit par des catalyseurs. De nombreux travaux sont actuellement en cours avec l’objectif d’une meilleure performance en termes de sélectivité, de limites de détection et de résolution spatiale ou temporelle. Au moins deux voire trois de ces critères sont ciblés simultanément par des travaux extrêmement intéressants concernant la détection de nano-impacts. Il s’agit de mesurer par voie électrochimique des évènements de collision entre une nanoparticule unique et la surface de l’électrode, ce qui permet de déterminer avec une très grande précision sa composition, sa taille et dynamique. La communauté française est aussi active dans cette thématique en parallèle avec des contributions anglaises, néerlandaises, américaines etc. Bien qu’il s’agisse pour l’instant plutôt d’une activité académique, des applications potentielles existent déjà, dans le domaine de la pollution croissante de notre environnement par des nanoparticules. La tendance générale va à la sensibilité ultime, c’est-à-dire la détection électrochimique de la molécule unique. Certains travaux récents se sont aussi intéressés à la détection ou l’imagerie d’entités biologiques individuelles, telles que des cellules, par ECL, basés sur le développement d’une véritable microscopie ECL. Ce type de travaux ne peut pas être classé dans le domaine des biocapteurs habituels, mais sont susceptibles à long terme d’apporter des informations importantes pour le domaine médical. Dans ce contexte, notons l’émergence de travaux où de telles expériences sont couplées avec une approche d’électrochimie bipolaire, sous-domaine de l’électrochimie qui poursuit son évolution, notamment en ce qui concerne les applications analytiques.

De manière plus générale, l’interfaçage d’outils électrochimiques avec des entités biologiques, telles que les cellules, les mitochondries ou certaines protéines, reste un domaine très dynamique avec plusieurs acteurs bénéficiant d’une visibilité au plus haut niveau international. Une nouveauté intéressante consiste à immobiliser des algues entières et ouvre un champ d’étude qui sera exploité ces prochaines années. Les outils basés sur des protéines membranaires isolées ou au sein de membranes lipidiques jouent un rôle important pour l’identification de mécanismes réactionnels cruciaux tels que la photosynthèse et la respiration. L’étude d’inhibiteurs de ces oxydoréductases, hydrogénases et d’autres protéines issues du métabolisme de bactéries pathogènes, permet l’identification des nouveaux antibiotiques. Une autre piste exploitée pour profiter des enzymes est l’utilisation de protéines issues de bactéries extrèmophiles qui présentent une grande stabilité de températures et pHs.

L’interfaçage entre l’électrochimie et le vivant sert également à la production d’énergie électrique, basée sur l’immobilisation, soit d’enzymes, soit de microorganismes entiers sur la surface d’une électrode. Des biopiles enzymatiques ou microbiennes ont ainsi vu le jour et le spectre d’enzymes utilisables pour ce type de procédés a été considérablement élargi, tout en améliorant leur performance en termes de longévité et de puissance. Le verrou majeur reste la bio-compatiblité de ces dispositifs. Malgré cet obstacle, des résultats encourageants ont pu être obtenus par exemple avec des composants microélectroniques autonomes énergétiquement.

D. Stockage, transformation de l’énergie

Le développement des énergies nouvelles, l’essor des véhicules électriques et hybrides, la volonté de disposer de sources autonomes d’énergie électrique pour l’alimentation de petites centrales ou d’appareils portables dans divers domaines (microélectronique, santé, défense, sécurité, domotique, télécommunications, loisirs etc.) ont engendré d’intenses travaux de recherche dans le domaine des générateurs électrochimiques.

D’énormes efforts ont été faits pour développer d’autres concepts électrochimiques de transformation de l’énergie. Par exemple, une activité qui gagne en visibilité au niveau international concerne les cellules redox à flux ou la poursuite active des recherches sur les catalyseurs et les membranes pour les piles à hydrogène ou encore le développement de systèmes de stockage basés sur des phénomènes capacitifs.

Ceci dit, les enjeux liés au stockage de l’énergie sont tellement importants et pressants qu’ils ont conduit durant ces dernières années à des innovations spectaculaires et applicables surtout au niveau des batteries. Elles concernent l’élaboration de nouveaux matériaux et l’émergence de nouvelles technologies de batteries attractives. Un déplacement du « curseur recherche » des matériaux vers l’électrochimie pure visant à améliorer les interfaces, qui sont le cauchemar de l’électrochimie, est anticipé. Le défi est de poids en raison de l’aspect dynamique des interfaces. C’est dans ce contexte que toutes activités de recherche visant à la fonctionnalisation des surfaces, à l’ingénirie des interfaces, au développement de techniques analytiques et d’outils de caractérisation in opérando permettant d’en suivre leur évolution compositionnelle et morphologique seront plus importantes qu’elles n’ont jamais été dans le passé. Des efforts devront également être canalisés vers l’amélioration et le développement de techniques in situ de prospection des interfaces solide-liquide et solide-solide en temps et en espace. Enfin des modèles théoriques concernant les interfaces à un potentiel donné devront être améliorés. Toutes ces nouvelles recherches s’inscriraient parfaitement dans le prochain flagship Européen (Battery 2030) dont l’un des 3 piliers est lié aux interfaces et à leur amélioration via l’intelligence artificielle. L’électrochimie des interfaces réserve donc des challenges fondamentaux passionnants et par la même des opportunités multiples pour répondre aux demandes sociétales.

IV. Chimie analytique, radiochimie et chimie sous rayonnements

A. Chimie analytique

Les récents progrès de la chimie analytique ont permis l’accès à une information mieux résolue dans le temps et l’espace et à des limites de détection toujours plus basses. Seules ou couplées, ces techniques sont employées à relever les challenges analytiques actuels et futurs.

1. Chromatographie

Depuis l’apparition des pompes ultra haute pression sur les systèmes de chromatographie liquide, la chimie des colonnes sub-2 μm (taille des particules) a connu une véritable révolution contribuant à une meilleure résolution et une plus grande sélectivité. En effet, la séparation et la quantification restent les fondements majeurs de la chromatographie, maintenant appliquées à des échantillons toujours plus complexes constitués de plusieurs centaines voire milliers de composés. Dans certaines applications, plusieurs courants séparatifs cohabitent : (1) réduction du diamètre interne des colonnes associée à l’augmentation de la longueur de celles-ci vers une meilleure sensibilité par la résolution, (2) séparation multi-dimensionnelle en ligne ou découplée pour bénéficier de l’orthogonalité séparative des phases/techniques sélectionnées. L’évolution passe également par la miniaturisation, et de plus de solutions séparatives sont proposées dans un format « on-chip » ou micro-fluidique. Dans le cadre d’analyses complexes, la chromatographie en phase gazeuse propose maintenant une analyse multidimensionnelle de type GCxGC ou GC3 et/ou la combinaison de plusieurs détecteurs en série et en parallèle. En complément, une autre tendance marquée est l’évolution vers une sensibilité plus élevée et des limites de détection inférieures qui permettent l’identification de plus de composants chimiques dans un même échantillon à des niveaux de traces ou d’ultra-traces.

2. Analyse inorganique, de spéciation et isotopique

La caractérisation inorganique a subi de fortes évolutions ces dernières années, notamment vers la détection en ultra-traces et la discrétisation de l’information, passant de l’analyse du contenu élémentaire à la connaissance de sa dissémination dans la matrice par imagerie. Ces approches permettent d’élargir les champs d’application notamment dans l’environnement et le vivant et d’affiner la connaissance de l’échantillon en illustrant son hétérogénéité.

La préparation de l’échantillon constitue actuellement le goulet d’étranglement de la dynamique d’analyse inorganique. Les techniques de minéralisation sous champs microondes n’ont que peu évolué et restent encore un formidable champ de développement. En revanche, les techniques d’introduction immédiate dans les détecteurs à ionisation par plasma induit faisant appel à l’ablation laser sont en très forte évolution, le passage des lasers nano- aux lasers femto-seconde induisant un gain de sensibilité et de reproductibilité ainsi qu’une moins grande dépendance de la longueur d’onde d’ablation. Il est ainsi possible d’obtenir une imagerie inorganique élémentaire, multi-élémentaire ou même isotopique avec une résolution spatiale de quelques microns.

Contrairement aux dix dernières années, on assiste à un renouveau des détecteurs inorganiques avec une simplification de l’instrumentation et une évolution des performances des détecteurs multi-élémentaires. La sensibilité de ces derniers permet maintenant, en fonction de leur géométrie, d’atteindre la détection en routine au niveau du ppt (ng/l) voire du ppq (pg/l). Ces excellentes limites de détection ouvrent de nouveaux champs d’investigation dans l’environnement comme dans le vivant. La structure de ces détecteurs ICP/MS permet aussi de les coupler facilement aux chromatographies liquides ou gazeuses et d’élargir l’information inorganique en lui associant une formulation de spéciation ou bio-inorganique. Ces très fortes solutions analytiques questionnent maintenant en retour les réglementations en place et bousculent en particulier les domaines des cosmétiques et de l’agroalimentaire.

Enfin, on assiste à une démocratisation de l’utilisation des signatures isotopiques non traditionnelles liée à l’évolution des performances des ICP/MS à multicollection, ce qui permet d’amener les nouveaux concepts de signatures d’origine ou aspects réactionnels en utilisant, quand les éléments le permettent, les signatures de fractionnement indépendant de la masse (MIF). La détection et mesure de précision à très faibles concentrations comme les couplages aux différentes chromatographies vont certainement entrainer une nouvelle vision des compréhensions et descriptions des cycles biogéochimiques des métaux dans l’environnement comme dans le domaine du nucléaire. On assiste donc à un renouveau des applications et du potentiel des analyses inorganiques, bio-inorganique et isotopique. L’imagerie et la discrétisation de l’échantillon se traduit aussi par une très grande génération de signaux et de données ce qui entraine également une nouvelle logique d’exploitation et de gestion de ces données comme dans les autres champs des sciences analytiques.

3. La spectrométrie de masse

Ubiquitaire et omnipotente, la spectrométrie de masse se caractérise par la grande diversité des géométries d’appareillages disponibles. Ses principaux axes d’amélioration sont associés à la sensibilité, la résolution et la vitesse d’acquisition. Ces dernières années ont été marquées par le développement des analyseurs de type Orbitrap permettant un accès aux mesures de haute résolution en routine et avec une vitesse d’acquisition accrue. L’introduction de la mobilité ionique permettant de distinguer les isomères géométriques, fournit une dimension séparative supplémentaire. La multiplication des modes de fragmentation alternatifs en basse et moyenne/haute énergie améliore les informations structurales. Les cellules ICR harmonisées ont permis une résolution multipliée d’un facteur dix des instruments de type FT-ICR (précision de quelques ppb). Ces avancées techniques, combinées à des développements méthodologiques et (bio)-informatiques, permettent d’appréhender l’étude d’échantillons de complexité toujours grandissante dans les sciences chimiques, environnementales, sciences de la vie, l’astrochimie ou encore le patrimoine culturel. En outre, la spectrométrie de masse tire les bénéfices de la multitude de géométries d’analyseurs existants pour se positionner aussi bien en analyses qualitatives ou structurales comme quantitatives, de la recherche fondamentale jusqu’au développement de molécules et leur valorisation dans le cadre d’activités industrielles. Protéines ou polypeptides jusque-là lysés pour en faciliter la caractérisation sont dorénavant étudiés intacts, pour limiter au plus les artéfacts induits par les phases de préparation. Parce que réunissant plusieurs classes de molécules (de grande variété de composition chimique et atomique, et de masse moléculaire) et s’intéressant à leur caractérisation et quantification quasi-exhaustive, la métabolomique concentre beaucoup d’attention dans les domaines appliqués en environnement ou en pharmaceutique/biosanté. Ces approches non ciblées permettent, dans des designs d’expérience où la préparation d’échantillon est maitrisée, de fournir un instantané en temps réel de l’état de l’organisme étudié. Ces méthodes conçues à l’origine comme des outils de recherche académique ont de plus en plus d’application dans l’industrie. L’imagerie par spectrométrie de masse s’est également considérablement développée ces dernières années grâce aux techniques de désorption et d’ionisation MALDI ainsi que d’autres techniques d’analyse de surfaces solides (SIMS). Ces nouvelles solutions d’imagerie génèrent des cartographie 2D et 3D avec des résolutions latérales de l’ordre de 1-5 μm (50 nm pour nanoSIMS) et peuvent maintenant être couplées à d’autres techniques afin d’envisager une approche multimodale.

B. Radiochimie & chimie sous rayonnements

Si le domaine d’application de la radiochimie premier reste lié au cycle du combustible électronucléaire, de nombreux autres champs d’investigation lui sont néanmoins ouverts, en particulier en sciences de l’environnement, sciences de la terre ainsi qu’en médecine et pharmacie.

La chimie sous rayonnement se concentre sur l’étude des effets des rayonnements ionisants sur la matière, qu’il s’agisse de dégâts d’irradiation dans des matériaux, ou des effets de radiolyse dans les solutions. Ces deux champs disciplinaires, bien qu’intimement liés, ont longtemps constitué des communautés distinctes. Un effort de rapprochement a néanmoins été entrepris au cours des dernières années, en particulier avec la création d’un GdR commun (SciNEE), la fusion des Journées Nationales de Radiochimie et des Journées d’Étude de la Chimie sous Rayonnement et la création d’une section « Chimie sous Rayonnement et Radiochimie » au sein de la division Chimie-Physique de la SCF.

1. Radiochimie

Les conséquences de l’accident de Fukushima, qui ont conduit à une nouvelle vague de défiance vis-à-vis de l’énergie électronucléaire et à son abandon programmé dans plusieurs pays occidentaux, ont incontestablement impacté les programmes de recherche dans le domaine au cours des dernières années. En parallèle, les questions soulevées en France par les débats autour de la transition énergétique et les retards accumulés du réacteur de 3e génération (EPR) ont également contribué à un ralentissement des programmes dédiés au développement des futures générations de réacteurs et des cycles du combustible associés. Ce handicap conjoncturel se conjugue aux difficultés structurelles historiques de la communauté, qui apparait morcelée entre différents organismes de recherche (Universités, CNRS, CEA, IRSN…). La communauté académique est en outre constituée pour partie d’équipes de taille modeste, ce qui la pénalise en terme de visibilité et de rayonnement international. Les dernières années ont néanmoins marqué un effort important de structuration. Des liens se sont notamment tissés via le financement de projets structurants au sein du défi NEEDS (Nucléaire, Energie, Environnement, Déchets, Société) tandis que la création du GdR SciNEE a permis d’organiser les thématiques scientifiques abordées. On peut ainsi distinguer trois axes principaux.

Systèmes nucléaires et scénarios associés : largement pilotée par la communauté des physiciens de l’IN2P3, cette thématique vise à étudier les scénarios énergétiques associés à des cycles nucléaires alternatifs, tels que ceux à base de thorium. La contribution des radiochimistes y demeure indispensable afin de permettre l’obtention de données nucléaires de base (conception de cibles d’actinides), et d’entreprendre les études liées à la fabrication et au retraitement des combustibles.

Cycle du combustible : les problématiques liées aux cycles actuels et futurs demeurent toujours un enjeu fort. Si les aspects liés à la fabrication du combustible semblent aujourd’hui moins porteurs que par le passé, ceux relevant de son retraitement (dissolution, chimie séparative) sont actuellement l’objet de nombreux travaux et permettent d’établir des ponts avec la science des procédés hydro-métallurgiques envisagés pour la valorisation des métaux stratégiques (mine urbaine).

Radiochimie environnementale, radioécologie : la mesure de radionucléides à l’état de traces dans des matrices complexes ainsi que l’étude de leur migration vers la biosphère et de leur interaction avec le vivant apparaît aujourd’hui comme un élément indispensable à un débat sociétal apaisé autour de l’utilisation de l’énergie nucléaire. La radiochimie environnementale constitue ainsi un domaine d’intersection entre radiochimie et chimie de l’environnement, et apparait donc comme une forte source d’interdisciplinarité. Dans ce cadre, la Zone Atelier Territoires Uranifères a notamment permis d’initier plusieurs projets regroupant chimistes, géologues, biologistes, et sociologues.

D’autres thématiques restent abordées par la communauté. La radiopharmaceutique a ainsi vu un développement important de la théranostique, qui vise à l’utilisation d’isotopes uniques pour le diagnostic et le traitement de tumeurs. Il faut en outre noter le rôle croissant joué par la chimie théorique dans le design des molécules vectrices, en permettant une approche prédictive de la stabilité de complexes impliquant des radionucléides de courte durée de vie. Les défis liés au démantèlement des centrales nucléaires constituent également une thématique émergeante et nécessiteront le développement de solutions innovantes pour la décontamination.

2. Chimie sous rayonnement ionisant

L’étude de la Chimie sous Rayonnement peut être divisée en deux axes principaux. Le premier repose sur l’étude du comportement sous irradiation de matériaux d’intérêt pour le cycle électronucléaire, dont en premier lieu le combustible et les matériaux de structure présents au sein du réacteur, mais également les matrices envisagées pour le confinement de certains radionucléides. Un effort particulier est actuellement porté sur l’étude de la nature des défauts induits par irradiation : à ce titre, des techniques innovantes telles que la spectroscopie d’annihilation de positons, sont développées, et on peut noter le rôle croissant joué par les méthodes de simulation numérique. Les études sur les combustibles irradiés réels demeurant difficiles à mettre en œuvre, la question de la représentativité d’irradiations externes aux ions et/ou aux électrons est également posée. Enfin, il est important de noter que le comportement des matériaux est de plus en plus abordé à travers le couplage de plusieurs contraintes, i.e. radiative/mécanique ou radiative/chimique.

En parallèle, de nombreuses équipes poursuivent des études de radiolyse afin de mettre en évidence les mécanismes complexes gouvernant les interactions rayonnement-molécule dans divers milieux. Ces travaux trouvent bien sûr un écho dans le cadre du cycle du combustible nucléaire, en particulier lors de son recyclage où la dégradation des molécules extractantes et l’évolution du milieu (acide nitrique concentré) doivent être abordées avec soin. De nombreuses études se déroulent également à l’interface avec les sciences du vivant : la radiolyse, par sa compréhension fine des mécanismes à l’œuvre lors de l’interaction rayonnement ionisant/molécules d’intérêt biologique, notamment aux échelles de temps courts, et plus généralement sur des gammes temporelles très étendues, devrait permettre de poursuivre les avancées réalisées dans ce domaine. Enfin, la radiolyse permet de simuler efficacement et de manière accélérée les processus de vieillissement à l’œuvre dans des systèmes d’intérêt pour les énergies renouvelables (batteries…). Elle permet en outre d’accéder à des données résolues en temps, et donc de proposer des mécanismes réactionnels sur des échelles de temps variées allant de la picoseconde à la journée.

Toutes ces expériences nécessitent un panel étendu de résolutions temporelles. La plus grande résolution temporelle actuellement accessible en France est celle de la picoseconde, mais de meilleures résolutions (sub-picoseconde et femtoseconde) permettraient de mieux comprendre les tous premiers instants de l’interaction rayonnement ionisant/matière, notamment dans le cas de solutions concentrées par exemple. Enfin, le couplage des rayonnements ionisants avec différentes techniques d’analyse comme la spectroscopie Raman, la résonance paramagnétique de l’électron, la conductivité ou l’électrochimie, sur des gammes de temps variées, devrait également donner accès à davantage d’information sur l’évolution des systèmes sous rayonnement en fonction du temps.

Conclusion

Nous espérons avoir convaincu par ce rapport que la physico-chimie, qui est au centre de la section 13, reste une dicipline très active et est surtout une discipline d’avenir.

Tout en adressant des aspects fondamentaux des phénomènes, elle aborde des sujets sociétaux qui prennent de plus en plus d’importance, notamment ceux relevant de l’énergie, du patrimoine, des analyses chimiques en générale et de leurs retombés en chimie environnementale. De ce fait, l’aspect interdisciplinaire de la physico-chimie ne concerne pas seulement notre communauté mais renforce les liens avec d’autres disciplines extérieures à la chimie.

Le fort aspect applicatif des thématiques scientifiques des physico-chimistes ne doit toutefois pas faire oublier ou affaiblir l’expertise fondamentale et expérimentale qui permet à la France d’être reconnue dans ce domaine sur le plan international. La physico-chimie subit de profondes évolutions d’une part en raison des nouvelles techniques expérimentales et d’autre part par les nouveaux concepts qui s’y développent, ces derniers en relation avec d’autres domaines bien au delà de la chimie. On peut citer l’apparition et le développement du « machine learning » qui illustre bien les bouleversements à venir à la fois dans la mise en place de nouveaux concepts dans la manière de concevoir une expérience. Le renouvellement continu de la communauté qui doit être régulier et planifié sur le long terme, reste un point clé pour maintenir le niveau international de la physico-chimie. On ne peut évidemment occulter les conséquences de la baisse du nombre de recrutement des chercheurs et enseignant-chercheur qui non seulement affaiblit le potentiel humain mais également l’attractivité pour les métiers de la recherche dont soufre les carrières scientifiques autour de la chimie. D’autres sources de difficultés existent lorsque l’on considère les domaines de la section 13. Le recrutement des chercheurs est directement lié à la formation de jeunes docteurs et de leur formation au sein des universités françaises et étrangères. Un changement important a eu lieu ces dernières dix années, avec la perte des masters spécialisés comme par exemple en chimie physique théorique (master national) ou en électrochimie (Paris, Grenoble) et la création de masters avec une formation large en chimie physique dans toutes les universités. En même temps, une internationalisation des candidats au niveau master et doctorat avait eu lieu. Le financement des stages masters a induit d’autres biais car une partie importante des étudiants de master se dirigent vers des laboratoires développant une recherche plus appliquée et qui possèdent des possibilités de financement de stage plus importantes grâce à des ressources contractuelles. Ceci contribue à affaiblir mécaniquement la recherche fondamentale en chimie physique. Pour ces projets, le recrutement se fait majoritairement à l’étranger.

Certaines communautés sont plus impactées car les jeunes étudiant.e.s formé.e.s se dirigent préferentiellemet vers d’autres métiers que les carrières académiques. Par exemple, les étudiants de master et doctorants en radiochimie ou en chimie analytique ont la possibilité d’intégrer l’industrie, souvent avant la thèse et le nombre de jeunes docteurs intéressés par une activité en recherche est de fait assez faible. Ceci pose le problème de l’attractivité des métiers de la recherche, problème qui dépasse largement le périmètre de la section.

ANNEXE 1

Sigles employés dans le rapport.
LED : Light-Emitting Diode
OLED : Organic Light-Emitting Diode
STED : Stimulated Emission Depletion
PALM : Photo-Activated Localization Microscopy
STORM : Stochastic Optical Reconstruction Microscopy
NP : nanoparticule
SERS : Surface-Enhanced Raman Scattering
SEIRAS : Surface-Enhanced Infrared Absorption Spectroscopy
TERS : Tip-Enhanced Raman Spectroscopy
AFM : Atomic Force Microscopy
ADN : Acide DésoxyriboNucléique
IR : Infra-Rouge
QCL : Quantum Cascade Laser
TD-THz : Time-Domain TeraHertz
RPE : Résonance Paramagnétique Électronique
RMN : Résonance Magnétique Nucléaire
DNP : Dynamic Nuclear Polarisation
DNP MAS : Dynamic Nuclear Polarisation Magic Angle Spinning
ESRF : European Synchrotron Radiation Facility
XFEL : X-ray Free-Électron Laser
ESS : European Spallation Source
DFT : Density Functional Theory
QM/MM : Quantum Mechanic / Molecular Mechanic
ATP : Adénosine-TriphosPhate
ADN : acide désoxyribonucléique
GPU : Graphics Processing Unit