Rapport de conjoncture 2014

Section 13 Chimie physique, théorique et analytique

Extrait de la déclaration adoptée par le Comité national de la recherche scientifique réuni en session plénière extraordinaire le 11 juin 2014

La recherche est indispensable au développement des connaissances, au dynamisme économique ainsi qu’à l’entretien de l’esprit critique et démocratique. La pérennité des emplois scientifiques est indispensable à la liberté et la fécondité de la recherche. Le Comité national de la recherche scientifique rassemble tous les personnels de la recherche publique (chercheurs, enseignants-chercheurs, ingénieurs et techniciens). Ses membres, réunis en session plénière extraordinaire, demandent de toute urgence un plan pluriannuel ambitieux pour l’emploi scientifique. Ils affirment que la réduction continue de l’emploi scientifique est le résultat de choix politiques et non une conséquence de la conjoncture économique.

L’emploi scientifique est l’investissement d’avenir par excellence
Conserver en l’état le budget de l’enseignement supérieur et de la recherche revient à prolonger son déclin. Stabiliser les effectifs ne suffirait pas non plus à redynamiser la recherche : il faut envoyer un signe fort aux jeunes qui intègrent aujourd’hui l’enseignement supérieur en leur donnant les moyens et l’envie de faire de la recherche. On ne peut pas sacrifier les milliers de jeunes sans statut qui font la recherche d’aujourd’hui. Il faut de toute urgence résorber la précarité. Cela suppose la création, sur plusieurs années, de plusieurs milliers de postes supplémentaires dans le service public ainsi qu’une vraie politique d’incitation à l’emploi des docteurs dans le secteur privé, notamment industriel.

Composition de la section

Xavier Assfeld (président de section) ; Sophie Sacquin-Mora (secrétaire scientifique) ; Jean Aupiais ; Dario Bassani ; Philippe Bertani ; Marcello Brigante ; Hélène Budzinski ; Michel Cassir ; Catherine Combellas ; Marie-Liesse Doublet ; Nathalie Guihery ; Céline Léonard-Destandau ; Rémi Metivier ; Jean-Christophe Lacroix ; Jean-Pierre Pereira-Ramos ; Michel Petitjean ; Marc Simon ; Anne Zehnacker.

Résumé

En rédigeant ce rapport de conjoncture, notre volonté a été de faire le point sur les différentes disciplines qui constituent la section 13 du CoNRS en insistant principalement sur le positionnement de la recherche française vis-à-vis de l’état de l’art et les différents risques matériels ou structurels qui la menacent. De même, les orientations scientifiques actuellement choisies pour lever les verrous identifiés sont discutées.

Introduction

Depuis le dernier rapport de conjoncture il faut noter le changement d’intitulé de la section 13 du CoNRS qui est maintenant homonyme de la section 31 du CNU, bien que son contour n’ait pas été modifié. À la lecture de ce document vous découvrirez l’évolution des différentes disciplines constituantes et l’état actuel des possibilités. Plutôt que de se lancer dans une étude de « futurologie », notre but a été de replacer la recherche Française dans le contexte mondial, d’identifier les différentes menaces et d’indiquer les diverses options actuellement utilisées pour lever les verrous persistants.

À n’en pas douter, la physico-chimie se porte bien en France comme l’indiquent les paragraphes suivants sur les avancées scientifiques. Elles situent cette discipline à part entière parmi les plus créatrices et à l’interface avec d’autres sciences telles que la physique, la biologie ou encore la géologie. Par contre, il faut s’alarmer de la disparition progressive des formations fondamentales et de la chute inexorable des recrutements. Il est du devoir de chaque membre de notre communauté de replacer notre discipline comme matière indispensable à la bonne formation de tout scientifique.

I. Chimie théorique

La chimie théorique a pour objectif la compréhension et la prédiction des propriétés physico-chimiques de la matière. Cette science transdisciplinaire, née entre physique moléculaire et chimie, a noué des liens forts avec la physique du solide et les sciences de la vie. Elle développe des méthodes et formalismes qui sont implantés dans des logiciels nécessitant des ressources informatiques considérables. Elle propose aussi des modèles plus simples faisant appel à des approximations judicieusement choisies et permettant de rationaliser nombre de phénomènes physico-chimiques. Les programmes actuels permettent ainsi d’étudier des systèmes dont la taille va de l’atome aux matériaux en passant par les molécules. Pour modéliser ces systèmes de manière réaliste, la chimie théorique décrit aussi bien leurs propriétés statiques que dynamiques. Elle est ainsi devenue un des piliers de la chimie et les synergies Théorie/Expérience sont un moteur pour la conception de nouveaux objets, leur caractérisation expérimentale et la production de nouvelles méthodes. Si les propriétés de la matière et le besoin de les rationaliser constituent souvent le point de départ d’un développement méthodologique, les avancées en matière de formalisme permettent aussi d’impulser de nouvelles applications et d’orienter les expériences. Grâce à son arsenal de techniques, la chimie théorique peut décrire un ensemble de phénomènes physico-chimiques intervenant à des échelles spatiales et temporelles variées, en représentant de manière plus ou moins explicite la complexité du système.

A. Les différents visages de la complexité

Quel que soit le système ou la propriété cible, l’objectif premier du théoricien est de déterminer la ou les méthodes les plus adaptées. Ce choix est conditionné par le type de complexité à traiter et les grandeurs à calculer, mais aussi par le rapport précision/coût calculatoire souhaité ou accessible avec les méthodes disponibles. Si la taille des objets reste un critère incontournable dans le choix du formalisme, les avancées méthodologiques en matière de développement et d’efficience numérique permettent d’étendre chaque jour les potentialités des méthodes les plus sophistiquées pour traiter des systèmes de taille croissante. En même temps, la volonté de traiter des propriétés toujours plus complexes faisant parfois intervenir plusieurs acteurs en dehors du système actif place les méthodes semi-classiques ou classiques au cœur de développements ambitieux, si bien que le fossé entre tout quantique et tout classique s’est fortement réduit, ouvrant la voie aux méthodes « hybrides » (mariage de différents formalismes) ou aux approches multi-échelles (couplage de différentes échelles spatiales ou temporelles).

1. Complexité liée aux interactions

L’accès aux propriétés statiques d’un système dépend du degré de complexité des interactions électron-électron ou électron-noyau et oriente le théoricien vers des méthodes basées sur la fonction d’onde (WFT) ou sur la densité (DFT). Les premières proposent une résolution numérique approchée de l’équation de Schrödinger et concernent des systèmes de taille restreinte. Elles sont les seules capables de décrire correctement des systèmes dont les propriétés électroniques sont gouvernées par des interactions faibles (type Van der Waals), des interactions entre électrons essentiellement localisés, ou par les états excités et sont donc bien adaptées au traitement de propriétés comme le magnétisme ou la photo-réactivité de petits systèmes. Les méthodes DFT prennent en compte certaines de ces interactions de manière empirique ou effective, mais leur moindre coût numérique permet de traiter la structure électronique de systèmes plus grands (quelques centaines d’atomes). Elles ont pris une place prépondérante dans le domaine des matériaux et sont de plus en plus employées pour analyser la réactivité aux interfaces, trouvant ainsi de nombreuses applications dans le domaine de la catalyse, de l’optoélectronique ou encore de l’électrochimie.

2. Complexité liée à l’environnement

Modéliser les effets de l’environnement sur les propriétés d’un système est un axe clé des développements de la chimie théorique. L’environnement d’un système peut prendre plusieurs formes et sa prise en compte dépend de la représentation choisie par le théoricien. Les modèles de continuum polarisable permettent une modélisation implicite dans un calcul quantique, et traitent les effets de polarisation induits par un solvant sur la réactivité d’une molécule. Les méthodes QM/MM concilient les échelles quantique (Quantum Mechanics) et classique (Molecular Mechanics) et autorisent un traitement explicite de l’environnement. Très utilisées dans le domaine de la biologie, elles ont permis de décrire la réactivité chimique au sein d’un environnement complexe. La modélisation de ces systèmes de grande taille est progressivement devenue possible d’une part via la croissance des ressources de calcul disponibles, et d’autre part via le développement de simulations mésoscopiques (dynamique brownienne) couplées à des représentations gros-grains adaptées à des objets biologiques variés. Dans cette perspective, la relecture des rapports de conjoncture antérieurs permet de mesurer les progrès effectués en matière de taille des systèmes simulés : en 1989, la limite supérieure se situe à 5 000 particules, en 1994, on passe à 10 000. Les systèmes ciblés comportent désormais plusieurs centaines de milliers d’atomes, simulés sur près d’une microseconde.

3. Complexité liée à la réactivité

Le terme réactivité désigne une multitude de processus décrivant la réponse du système à un changement de composition, de conformation, ou à une perturbation extérieure. Le traitement théorique de la réactivité fait face à de nombreux verrous méthodologiques, surtout liés au fait que plusieurs états électroniques peuvent être impliqués dans le mécanisme de réaction. Les interactions entre états électroniques mènent à des chemins réactionnels complexes et à des modifications drastiques des surfaces d’énergie potentielle. Les calculs des grandeurs thermodynamiques de réaction et des surfaces d’énergie potentielle s’en trouvent donc particulièrement complexifiés, nécessitant souvent l’usage de méthodes multi-références. De par leur considération explicite du temps, les méthodes de dynamique quantique permettent de traiter la réactivité de ces systèmes complexes et d’accéder à leurs propriétés spectroscopiques avec une résolution de l’ordre du cm-1. Dans ce domaine, les questions clés restent le choix des dimensions actives et le traitement des coordonnées « inactives » via des approches hybrides et multi-échelle où l’effet de ces degrés de liberté peut être assimilé à celui d’un environnement.

B. Quelques défis et thèmes émergents

Parmi les thèmes émergents ou les grands défis de la chimie théorique, on distingue des thématiques visant à produire de nouvelles méthodologies ou à les améliorer, d’autres plus applicatives se situant dans le domaine de la recherche fondamentale ou très en amont et enfin celles qui embrassent les grands défis sociétaux. Il ne s’agit pas ici d’en dresser une liste exhaustive mais d’en citer quelques-uns.

1. Sur le versant méthodologique

Le traitement simultané des corrélations non-dynamique et dynamique par des méthodes de fonction d’onde reste un grand défi. Disposer de la fonction d’onde donne une force interprétative notable, et à ce titre les méthodes de type Valence Bond sont amenées à se déployer. De nombreuses tentatives d’unir les méthodes variationnelles et perturbatives permettent de traiter des systèmes de taille compatible avec celle des objets réels, tandis que leur mariage avec d’autres techniques comme celles incluant les distances interélectroniques explicitement ou le Monte Carlo Quantique en augmente la précision. De plus, les apports des méthodes basées sur la matrice densité DMRG (Density Matrix Renormalization Group ou Density matrix embedding) ont permis des avancées considérables. Les méthodes basées sur la fonctionnelle de la densité connaissent également des améliorations notables avec l’optimisation de fonctionnelles par « machine learning » (de l’ordre de 105 paramètres), l’introduction de corrections semi-empiriques de dispersion, ou la combinaison de méthodes de fonction d’onde avec la DFT. Au-delà de la TD-DFT beaucoup d’efforts sont également déployés vers la définition d’une DFT pour les états excités.

L’importance des effets relativistes dans la chimie des éléments lourds ou pour la description de propriétés comme la RMN ou la RPE conduit à de nouveaux développements : modélisation des effets de polarisations par spin-orbite, dérivation de nouveaux Hamiltoniens relativistes à deux composantes, ou prise en compte des effets de l’électrodynamique quantique.

L’apparition d’ordinateurs à grand nombre de cœurs de calculs (actuellement petaflop, et la course est lancée vers l’exaflop) induit un changement de paradigme dans le domaine de la simulation numérique et les approches stochastiques seront probablement amenées à jouer un rôle croissant dans le futur, voire à se substituer aux approches standards de l’algèbre linéaire. Ces algorithmes s’appliquent en effet très bien aux méthodes traditionnelles de la chimie quantique et en décuplent les potentialités. La perspective d’ordinateurs quantiques induit aussi un bouleversement de notre conception de l’algorithmique.

Le problème majeur du traitement quantique du mouvement des noyaux reste le nombre de degrés de liberté. Si certaines méthodes de dynamique quantique sont désormais applicables à des systèmes moléculaires de taille intéressante pour la chimie, par exemple l’approche ML-MCTDH (Multi-Layer-Multi-Configuration Time-Dependent Hartree), d’autres méthodes comme les intégrales de chemin permettent d’envisager des systèmes encore plus grands, grâce à un traitement classique de certains degrés de liberté bien choisis. Des approches combinant collocation et réseaux de neurones afin d’éviter l’utilisation de fonctions d’énergie potentielle et le calcul d’intégrales sont également prometteuses.

Ce panorama serait incomplet si l’on omettait les problèmes de traitement et d’exploitation des données calculées et recensées. L’accroissement des ressources informatiques a induit le développement de bases de données chimiques comprenant de quelques centaines à plusieurs millions de composés. C’est ainsi qu’est née à la fin des années 60 la chémoinformatique qui se distingue de la chimie théorique traditionnelle par son aspect base de données, avec comme champ principal la molécule. Parmi les applications, citons la construction et l’interrogation de bases structurales, de bases de réactions, de synthèse et de rétro-synthèse assistée par ordinateur, la prédiction de propriétés physiques, chimiques ou biologiques, la résolution de structures, et le criblage virtuel à haut débit qui est une technique commune au Material Design et à la biologie structurale (recherche de pharmacophores, approches LBVS et SBVS, docking) où l’un des défis majeurs est la recherche de nouvelles structures candidates.

2. Sur le versant applicatif

Des développements méthodologiques importants sont attendus en réponse aux enjeux sociétaux et environnementaux en matière d’énergie, d’environnement, de nucléaire ou de santé. Le fonctionnement des cellules photovoltaïques, des piles à combustibles ou des batteries Li-ion repose ainsi sur des processus physico-chimiques intervenant à des échelles spatiales et temporelles très variées mais aussi bien souvent dans des conditions hors-équilibre. À ce titre, les approches multi-échelles (top-down ou bottom-up) émergent dans le paysage scientifique. Par ailleurs, les phénomènes photo-luminescents, qui couplent des calculs électroniques à des approches dynamiques sont au cœur d’un grand nombre de défis applicatifs.

Une part des activités du chimiste théoricien se situe à la frontière de la physique et vise à découvrir de nouvelles propriétés de la matière, ou encore à comprendre l’origine de certaines propriétés fondamentales. Il en va ainsi des travaux concernant la violation de la parité dans les systèmes moléculaires (qui permettraient de comprendre l’homo-chiralité biomoléculaire) ou des tentatives pour déterminer un dipôle électrique de l’électron. Elles contribuent à repousser les limites actuelles, théoriques (électrodynamique quantique, force électro-faible) ou expérimentales, en suggérant par exemple des expériences en physique moléculaire. Toujours en lien avec la physique, l’atto-spectroscopie est un thème émergent où la chimie quantique sera amenée à jouer un rôle important.

Les défis de la biochimie théorique concernent aujourd’hui des systèmes macro- et multimoléculaires fréquemment couplés à des questions médicales, tels que les capsides virales, le ribosome, le réseau de microtubules au sein de la cellule, ou encore les fibres amyloïdes liées à la maladie d’Alzheimer.

Dans ce paysage, la communauté française est dynamique et bien reconnue internationalement. Elle se retrouve dans une constellation de GdR nationaux ou thématiques bien ciblés et un nombre plus restreints de réseaux à plus grande échelle. Du côté des supercalculateurs, la Maison de la Simulation créée récemment par le CNRS et le CEA a pour objectif de favoriser l’utilisation efficace par la communauté scientifique de ces grands équipements ainsi que la recherche dans le domaine du HPC (High Performance Computing).

C. Risques

Les systèmes frontières encore hors de portée des modélisateurs résultent de limitations à la fois quantitatives et qualitatives des méthodes de simulation. Sur le plan quantitatif, le foisonnement récent de grands centres de calculs mettant à disposition des chercheurs une puissance computationnelle inédite constitue une réponse possible à l’étude de systèmes supramoléculaires ou multiphasiques impliquant des échelles de temps et d’espace inaccessibles jusque-là. Néanmoins, il est crucial de ne pas perdre de vue que ces centres restent des outils au service des chercheurs, et ne peuvent fonctionner de manière pérenne que si des moyens humains à la hauteur de ces équipements de pointe sont mis en jeu. De plus, les volumes considérables de données qui sont produits par ces calculateurs n’ont de valeur que s’ils peuvent être ensuite analysés et exploités par des chercheurs.

Le choix d’un système cible, souvent motivé par l’existence de données expérimentales inexpliquées, stimule et oriente des développements méthodologiques novateurs qui offrent des outils théoriques applicables à une grande variété de systèmes. De fait, des chimistes théoriciens intègrent aujourd’hui des laboratoires de physique, chimie ou biologie, avec le risque d’être marginalisés par rapport aux équipes expérimentales qui représentent le « cœur » de l’activité du laboratoire. Les innovations méthodologiques sont le fruit des discussions de chercheurs issus de la même discipline travaillant ensemble au quotidien. L’existence d’unités de recherche entièrement consacrées à cette discipline est donc indispensable à l’émergence de nouvelles méthodes de simulations innovantes et il convient d’être vigilant face au risque d’isolement de certains chercheurs théoriciens souvent réduits à une activité de service au sein d’une unité dont les activités sont résolument tournées vers l’expérience.

D. Bilan

L’histoire récente de la chimie théorique a connu deux jalons essentiels que sont les prix Nobel de chimie décernés en 1998 à W. Kohn et J. Pople, et en 2013 à M. Karplus, M. Levitt et A. Warshel. Durant les quinze années qui séparent ces événements majeurs, la discipline a connu des bouleversements considérables, tant sur le plan méthodologique, menant à la multiplication des systèmes désormais accessibles à la modélisation, que dans sa relation avec le monde expérimental et industriel. Le prix Nobel de 2013 peut être vu comme un symbole de maturité de la chimie théorique, qui n’est plus seulement à même de reproduire des données issues de l’expérience, mais dispose également de capacités prédictives susceptibles de guider les expérimentateurs dans leur quête de nouveaux systèmes ou de nouvelles propriétés. Bien que la chimie théorique maintienne une activité en recherche fondamentale, son évolution récente témoigne d’une orientation vers une recherche plus technologique, résolument tournée vers des enjeux socio-économiques et environnementaux majeurs de notre société. Néanmoins, le cœur de métier de la chimie théorique reste celui des développements méthodologiques. Dans ce domaine, la chimie théorique française occupe une place reconnue et respectée dans la communauté internationale. Le constat est cependant moins glorieux en matière de valorisation puisque les codes de calculs commerciaux basés en partie sur les avancées méthodologiques françaises et aujourd’hui disséminés à l’échelle internationale n’ont toujours pas de licence française. À ce titre, il est capital qu’un juste équilibre soit maintenu par nos institutions entre les différentes sous-communautés de théoriciens, ceux qui développent les formalismes et les implantent dans les codes de calculs et ceux qui les utilisent pour accéder à une meilleure description d’objets toujours plus complexes.

II. Chimie analytique et pour l’environnement

A. Chimie analytique

La chimie analytique est le domaine de la chimie qui développe et applique des méthodes, des outils et des concepts pour caractériser la composition de la matière et son évolution dans le temps et dans l’espace. Elle permet également d’identifier et de quantifier éléments, molécules et macromolécules.. Elle trouve de nombreuses applications dans des domaines socio-économiques très divers tels que l’industrie agro-alimentaire, la gestion de l’environnement, la conservation et la restauration du patrimoine, le biomédical, les fraudes et le dopage, l’industrie pharmaceutique et cosmétique etc. Parmi ces différents secteurs d’activités, ceux de l’environnement et surtout de la biologie et du diagnostic médical sont à l’origine d’une demande en forte croissance.

Malgré les aspects extrêmement variés des demandes vis-à-vis de la chimie analytique, les verrous technologiques à surmonter ont de nombreux points communs. De plus de nouvelles réglementations européennes comme REACH (Registration, Evaluation, Authorization and restriction of CHemicals) les ont amplifiés ou en ont créé de nouveaux ; on soulignera plus particulièrement :

– la rapidité de la mesure pouvant aller jusqu’à une mesure en continu, permettant un gain en représentativité et/ou en coût,

– la quantité limitée de certains échantillons (goutte de sang, fragment d’œuvre d’art…) demandant des sensibilités importantes et la miniaturisation des outils,

– la nécessité pour certaines applications d’une analyse non destructive (échantillons uniques, rares, précieux, et/ou en quantités limitées…),

– l’analyse sur site pour le biomédical, l’environnement, les monuments historiques et l’industrie,

– l’abaissement des limites de détection pour l’analyse de traces et d’ultra-traces tant pour les éléments et les molécules isolées qu’en lien avec la spéciation,

– la nécessité de prendre en compte le concept de chimie analytique verte.

À côté de ces verrous technologiques on note également des besoins de rationalisation, de généralisation et d’intégration. Ainsi il est de plus en plus important d’appréhender l’analyse dans sa globalité, du prélèvement au résultat final.

Pour répondre à toutes ces exigences, la chimie analytique développe et utilise tous les outils susceptibles d’apporter des informations non-équivoques pouvant se traduire par une grandeur mesurable. Ainsi, elle s’appuie sur les concepts de la chimie, de la physico-chimie, de la physique et de plus en plus souvent sur ceux de la biologie et de la biochimie.

1. Amélioration de la sélectivité et de la sensibilité des méthodes séparatives et analytiques

Dans les années à venir, la chimie analytique devra faire face à une demande croissante en termes de besoin d’informations qualitatives et quantitatives. Pour y répondre, il faudra être capable de développer des systèmes analytiques permettant l’analyse simultanée d’un nombre croissant d’espèces, de multiplier les analyses mais aussi d’augmenter la résolution temporelle des analyses en réduisant leurs durées.. Dans la même logique la miniaturisation des outils apparaît prometteuse. Ces développements vont dans le sens d’une chimie plus respectueuse de l’environnement et permettant un abaissement des coûts analytiques.

L’analyse quantitative de composés présents à l’état d’ultra-traces dans des mélanges complexes reste un challenge d’actualité et ceci d’autant plus que l’identification des composés doit être sans équivoque et la quantification la plus juste et précise possible, ce qui sous-entend d’améliorer la sélectivité et la sensibilité des analyses.

2. Spécificité des procédures de prélèvement et de traitement des échantillons

L’analyse des échantillons peut être simplifiée en améliorant la spécificité des étapes de prélèvement et de traitement des échantillons. Ceci peut être obtenu par le développement de nouveaux matériaux mettant en œuvre des interactions très sélectives basées sur la complexation avec des ligands spécifiques, la reconnaissance moléculaire ou biomoléculaire. L’extraction des solutés très polaires et solubles en milieu aqueux reste un challenge scientifique.

3. Résolution des systèmes séparatifs

Les mélanges très complexes ne peuvent être résolus que par l’association de différents modes séparatifs. L’introduction de la chromatographie bidimensionnelle a permis des avancées spectaculaires dans le domaine de la chromatographie en phase gazeuse. L’effort doit être poursuivi dans le domaine des séparations par chromatographie en phase liquide et/ou électrophorèse capillaire avec en perspective les analyses protéomiques, et métabolomiques qui, à ce jour, ne donnent accès qu’aux espèces majoritaires. Dans ces domaines « omiques » en plein développement il devient nécessaire d’introduire la notion de traces et d’améliorer les sensibilités des analyses en jouant sur les séparations et sur les détecteurs.

4. Spécificité des détecteurs

Si d’importants progrès ont été réalisés ces dernières années sur la sélectivité des systèmes chromatographiques, les avancées technologiques notamment en spectrométrie de masse et sur les interfaces, permettent l’analyse qualitative et quantitative d’analytes insuffisamment résolus ce qui change le concept traditionnel de la mise en œuvre des séparations en se couplant à la résolution absolue des systèmes chromatographiques et l’amplifiant.

5. Bioanalyses

Des gains en spécificité de séparation, de prétraitement de l’échantillon ou de détection pourront être obtenus en faisant appel à des outils biologiques. On a assisté ces dernières années au développement de nouvelles méthodologies utilisant les réponses biologiques et/ou toxiques de tests cellulaires ou d’organismes pour mettre en évidence et quantifier les composés. On parle d’analyse dirigée par les effets (ou EDA pour « Effect Directed Analysis »). L’intérêt de ce genre d’approches est de conduire les caractérisations sans a priori en lien avec la réponse biologique mise en évidence. Ces approches permettront de faire le lien entre présence et effet biologique/toxique des composés identifiés et quantifiés.

6. Miniaturisation et microsystèmes intégrés

La miniaturisation est une étape obligée pour répondre aux exigences économiques et environnementales de réduction de l’usage des solvants organique et aux besoins d’analyses rapides, fiables et sensibles sur des volumes d’échantillon parfois infimes. Les principales demandes dans ce domaine émanent des milieux médicaux et environnementaux par exemple pour des analyses in vivo. Les microsystèmes font appel à des technologies telles que les microcanaux et la microfluidique qui demandent des développements particuliers. De même, des développements spécifiques doivent être conduits pour la détection en optimisant les couplages avec la spectrométrie de masse mais aussi en développant de nouveaux détecteurs ou capteurs. Dans l’optique d’élargir le spectre des molécules analysables le développement de microélectrodes faisant appel à l’électrochimie et/ou la biologie sont des voix prometteuses.

7. Mesure in situ et in vivo

La sécurité alimentaire, la surveillance de la qualité de l’environnement (air, eau, sol), le contrôle des effluents gazeux et liquides, etc., requièrent un nombre sans cesse croissant d’analyses avec des temps de réponse de plus en plus courts qui ne sont compatibles qu’avec des analyses sur site. Les travaux actuels concernent essentiellement l’immobilisation des éléments biologiques et la miniaturisation des dispositifs. Les bénéfices apportés par ces travaux sont spectaculaires puisque la réduction des distances à parcourir par les molécules dans les microsystèmes a permis une forte réduction des temps d’analyse qui sont passés de quelques heures pour des analyses sur microplaques en quelques minutes. Une autre piste de concept analogue est prise actuellement avec des matériaux à empreinte moléculaire capables de mimer des anticorps ou des récepteurs.

8. Amélioration des limites de détection/quantification et recherche des inconnues

Il existe un besoin général quel que soit le domaine d’application d’abaisser les limites de détection/quantification. En effet cela permet de baisser les prises d’essai, de travailler donc sur des échantillons de plus petite taille et donc de multiplier les possibilités de caractérisation à taille initiale équivalente. De plus si l’analyse ciblée reste complexe et difficile l’analyse non ciblée de composés inconnus est un réel challenge mais s’avère incontournable pour le futur.

9. Enseignement

En chimie analytique, de nombreux MASTERS professionnels et écoles d’ingénieurs existent avec une distribution homogène sur le territoire. Toutefois, ces formations se limitent trop souvent à décrire et à appliquer les méthodes existantes. Elles incluent rarement la compréhension des processus qui constituent souvent l’étape initiale indispensable aux développements de nouveaux concepts. Les MASTERS dédiés à la recherche en chimie analytique sont beaucoup moins nombreux d’autant que certains d’entre eux, centrés sur les développements instrumentaux, relèvent de la physique en abordant des thèmes tels que la microfluidique et le traitement du signal.

B. Chimie pour l’environnement

L’activité humaine conduit à une contamination croissante de l’environnement. La chimie doit prendre en compte l’attente citoyenne en matière de protection et de réhabilitation des milieux naturels et des aliments. La présence des contaminants dans l’environnement à l’état de traces et d’ultra-traces est des premiers défis rencontrés. Un autre verrou dans le domaine de la surveillance de la qualité de l’environnement est lié au fait que les analyses chimiques nécessitent des choix faits a priori des molécules à doser. Comme il est impossible d’être exhaustif, il est donc possible d’ignorer un danger. Il faut donc progresser dans l’analyse des inconnus et également dans la caractérisation des mélanges complexes.

Associée à d’autres champs disciplinaires (sciences de la Terre, sciences de la vie, sciences pour l’ingénieur, météorologie), la recherche en chimie doit devenir une des disciplines leaders pour la protection de l’environnement et de l’homme. Ceci est envisageable, non seulement, au niveau du concept de chimie verte, de chimie de l’environnement mais aussi au niveau de sa participation aux technologies plus performantes de traitement et d’épuration des effluents liquides et gazeux et des résidus solides (comme par exemple les boues de station d’épuration). Il est également important d’améliorer les connaissances sur la chimie des différents écosystèmes terrestres et aquatiques, en termes de suivi et de compréhension des processus (et ce dans les différents compartiments aquatiques, atmosphériques, biologiques, sols).

1. Traitement et dépollution

La gestion de la qualité de l’environnement passe inévitablement par la maîtrise des procédés de traitement des effluents gazeux et liquide et des résidus solides. Ces traitements peuvent être physiques, biologiques ou chimiques et doivent s’accompagner d’études mécanistiques permettant la caractérisation de la nature, de la stabilité et de la toxicité de traceurs de processus ou des produits de dégradation, certains d’entre eux pouvant parfois être plus toxiques que les produits parents.

2. Connaissance du milieu et compréhension des phénomènes

Une gestion adaptée de l’environnement requiert une connaissance approfondie de ce dernier et des phénomènes qui le régissent. Il est notamment nécessaire de connaître les constantes de vitesse de dégradation ou de formation des contaminants et les temps de vie qui en résultent. Des méthodologies d’identification quantitative de l’influence des différentes sources et processus doivent donc être développées et validées pour chaque grande famille de composés.

3. Enseignement

Les formations dédiées à l’environnement sont nombreuses tant en École d’ingénieur qu’en MASTER professionnels et recherche. La majorité d’entre elles est consacrée à l’eau. L’étude de l’environnement relevant de diverses disciplines (chimie, biologie, géologie…), ces formations sont pluridisciplinaires et la chimie, sans être marginale, est une discipline parmi d’autres. Le nombre des formations de chimie dédiées à l’environnement est actuellement limité et l’élargissement de telles filières serait pourtant un moyen efficace d’améliorer la position de la chimie dans les études environnementales.

III. Radiochimie

Les domaines couverts par la radiochimie vont de l’étude des propriétés physicochimiques des radionucléides (RN) en solution, aux interfaces et dans les solides, aux effets des rayonnements induits par les RN et jusqu’à l’étude des propriétés de la matière elle-même dans les domaines de la cosmologie et de la physique nucléaire. Les domaines couverts par cette discipline dépassent largement son champ habituel d’investigation (amont et aval du cycle du combustible), en particulier : protection, médecine, océanologie, paléo-climatologie, hydrogéochimie, datation.

La chimie sous rayonnements ionisants, est la discipline qui étudie les transformations de la matière irradiée par des rayonnements de grande énergie. Même si ces phénomènes concernent aussi le milieu entourant les RN, les études de radiolyse sont menées systématiquement avec des sources externes de rayonnements qui seules interfèrent avec le milieu. Ces sources peuvent être continues ou pulsées qui couplées à des détections rapides synchronisées permettent de décomposer les étapes cinétiques des mécanismes et d’établir les propriétés physiques et chimiques des intermédiaires réactionnels.

La relance des programmes pour l’énergie nucléaire dans le monde en accord avec une gestion durable des ressources était encore il y a peu un enjeu majeur car supposé acceptable par la société. Cet élan a été stoppé net par l’accident de Fukushima et a conduit plusieurs pays a renoncé à l’énergie nucléaire avec comme conséquence l’arrêt des centrales nucléaires d’ici une ou deux décennies. C’est une conséquence importante pour la radiochimie car, malgré une politique affichée pour poursuivre les efforts de recherche pour les réacteurs de quatrième génération, il n’est pas sûr que la recherche fondamentale soit privilégiée dans les années à venir. En revanche, l’acceptation par la société des éléments radioactifs comme acteurs de la santé publique est toujours d’actualité. On note aussi un regain d’intérêt des états (et plus particulièrement les États-Unis) pour disposer de molécules biologiques capables d’éliminer spécifiquement des radionucléides d’organismes, avec des applications évidentes en cas d’accident ou de terrorisme nucléaire.

Les avantages économiques, d’efficacité et de spécificité de l’énergie des rayonnements, comme alternative aux traitements thermiques, ou par addition d’agent chimique, sont aujourd’hui exploités dans de nombreuses applications. Elles sont peut-être peu connues du public, mais le développement de centres avec des accélérateurs qui leur sont dédiés est en pleine croissance. Par ailleurs, les effets bénéfiques des rayonnements pour réduire ou détruire les tumeurs cancéreuses sont basés sur une bonne compréhension des effets de la radiolyse. En particulier, le succès des ions lourds pour les traitements très localisés très développé au japon et désormais en croissance en France.

La dissémination des radiochimistes et des chimistes des rayonnements dans les 2 grands organismes que sont le CNRS et le CEA ainsi que dans les universités crée des liens forts entre les chercheurs des divers organismes qu’on retrouve dans les sources de financement dans certains projets fédérateurs du défi NEEDS (Nucléaire, Énergie, Environnement, Déchets, Société) :

– Ressources : mines, procédés, économie ;

– Traitement et conditionnement des déchets radioactifs (Déchets) ;

– Comportement à différentes échelles des matériaux pour le stockage (MIPOR) ;

– Impact des activités nucléaires sur l’environnement (Environnement) ;

– Matériaux pour l’énergie nucléaire.

Il est à noter également un développement très notable de la modélisation théorique dans tous les domaines de la radiochimie ou la radiolyse, que ce soit en thermodynamique des solutions, en modélisation des fluides dans les sols, en chimie structurale, en cinétique non homogène dans les traces d’absorption de l’énergie, et pour prédire les comportements chimiques d’éléments très peu connus comme l’astate, le polonium ou le protactinium. Il est clair que la part de la modélisation théorique sera de plus en plus importante grâce à l’existence de centres dédiés aux très grands calculs (par exemple le TGCC [Très Grand Centre de Calcul]). Un des grands défis en modélisation sera de pouvoir couvrir toutes les échelles d’espace et de temps (approche multi-échelle) rendu nécessaire pour appréhender les phénomènes physicochimiques liés au stockage, à la séparation, à la migration des RN, à la transformation des systèmes sous irradiation, etc.

On notera également qu’un thème de recherche réapparaît depuis peu : la physico-chimie bioactinidique et de façon générale, la physico-chimie des radionucléides associés aux molécules biologiques. L’enjeu est important car il permettrait d’accepter la radioactivité en tant que vecteur de progrès social pour peu que la recherche propose des classes de molécules permettant la décorporation ciblée, la remédiation des sites contaminés, le traitement ciblé des tumeurs, etc.

Dans le domaine de la chimie sous rayonnement, on note un essor important de la compréhension des mécanismes complexes :

– en milieu hétérogène, confiné et très concentré,

– à haute température et haut TEL,

– en transfert d’électron et recombinaison ultrarapide,

– en mécanisme d’oxydation ciblé en milieu biologique notamment pour attaquer les tumeurs.

Le constat donné lors du précédent rapport de conjoncture est hélas toujours d’actualité, à savoir une désaffection importante des étudiants pour la radiochimie et la radiolyse. L’enseignement de la chimie sous rayonnement qui intéresse des domaines très large est dispersé au niveau national. Néanmoins, on peut noter qu’un effort important se met en place en France pour redynamiser cette discipline (Master à Nantes, master international d’énergie nucléaire). Pour ce faire, un réseau national est en train de se créer pour fédérer les enseignements. La difficulté à trouver d’excellents candidats pour des thèses est toujours vraie, ce qui conduit les établissements d’enseignement à internationaliser leur formation.

IV. Électrochimie

Les réactions de transfert de charges, qui jouent un rôle majeur dans de nombreux domaines de la chimie, peuvent être finement contrôlées par électrochimie. En effet, l’électrochimie autorise l’étude des mécanismes réactionnels intimes de la chimie, s’étend de l’échelle nano à l’échelle macroscopique, intervient dans de nombreux processus analytiques, permet la préparation ou la transformation sélective de matériaux ou de surfaces ainsi que la production et le stockage d’énergie et constitue le fondement même de processus bioénergétiques vitaux dans la Nature (photosynthèse, etc.). L’électrochimie est donc à la fois une discipline moléculaire, une nanoscience, un outil d’investigation et d’élaboration multi-échelle, une branche importante des sciences de la vie, une approche majeure de la chimie analytique et une des disciplines essentielles des énergies renouvelables et d’une multitude d’activités de portée majeure dans le renouveau industriel. Cette diversité explique que l’électrochimie intervienne dans plusieurs thèmes de recherches prioritaires et défis sociétaux et soit répartie sur les sections 13, 14 et 15 du comité national, au niveau chimie.

Bien que le poids de l’électrochimie dans l’enseignement décline en raison de la mise en place des politiques de sites universitaires, on constate un essor important des recherches faisant appel à l’électrochimie Cet essor est favorisé par une structuration au travers notamment du groupe d’électrochimie de la Société Chimique de France, du groupe français de bio-électrochimie, ou de l’action motrice des électrochimistes (GDR, réseau RS2E, organisation de conférences et de colloques). On peut néanmoins regretter que la situation centrale de l’électrochimie dans plusieurs défis sociétaux soit peu visible dans les nouveaux intitulés de l’ANR et des programmes Horizon 2020, ne conduisant pas en France à des investissements plus importants en termes de financement à l’image de l’Allemagne, la Chine, ou de pays émergents.

A. Électrochimie moléculaire : mécanismes réactionnels, outils, méthodes

Les équipes françaises possèdent un savoir-faire reconnu au plus haut niveau international dans la compréhension des mécanismes réactionnels. C’est un enjeu fondamental en raison de multiples développements en chimie, et aussi dans d’autres disciplines (science des matériaux, médecine, biologie moléculaire et cellulaire…) Les avancées les plus notables vont des réactions complexes (électrochimiques ou non) ou en milieux complexes, se produisant à une interface jusqu’au développement d’outils et de méthodes.

Le premier point concerne des aspects fondamentaux de la réactivité chimique : transferts concertés électron/proton, communication intramoléculaire dans les systèmes organiques et organométalliques conducteurs ou réactivité des intermédiaires chimiques dans des milieux non conventionnels (liquides ioniques basse température, sels fondus, électrolytes solides, etc.). La catalyse des réactions électrochimiques devient un sujet d’actualité pour les énergies renouvelables, afin notamment de stocker ces énergies intermittentes dans des liaisons chimiques. L’électrochimie moléculaire, par ses méthodes et ses concepts, a permis de stimuler ce domaine, notamment via l’analyse des mécanismes catalytiques, l’extraction des constantes cinétiques et la possibilité de comparer sur des bases rationnelles les performances des catalyseurs. En chimie du vivant, l’électrochimie permet, par exemple, d’étudier les propriétés redox du centre actif d’une enzyme ou de ses modèles biomimétiques et d’analyser son mode de fonctionnement, mais aussi de détecter et quantifier puis comprendre les mécanismes de nombreuses réponses cellulaires à l’échelle de la cellule unique ou du tissu.

Au sujet des outils, les développements les plus spectaculaires restent l’accès aux échelles micro et nano, que ce soit pour l’étude de phénomènes en solution ou à une interface et l’essor important des activités autour du microscope électrochimique à balayage (SECM) ainsi que les couplages de cet outil avec des méthodes spectroscopiques. Le couplage de l’électrochimie à d’autres instrumentations offre une complémentarité qui permet de localiser une observation ou une modification de surface et d’imager une surface à l’échelle sub-micronique. L’utilisation d’ultramicro-électrodes, puis de nanoélectrodes, permet d’accéder à la réactivité dans des milieux identiques à ceux de la chimie classique et à la gamme de temps de la nanoseconde. Les possibilités de ces méthodes dans un milieu inhomogène permettent d’appréhender la réactivité chimique à une échelle locale et/ou multi-échelles, ce qui ouvre de nouveaux champs d’investigation et autorise l’élaboration et la caractérisation de nano-objets, comme les supra et les supermolécules, les assemblages moléculaires, les dendrimères, les couches minces, etc. Ces recherches sont accompagnées par des développements théoriques sur les processus de diffusion-réaction à des échelles de longueur nano ou, micro pour les systèmes confinés ou à des structures contrôlées. Notons également l’importance de la catalyse assistée électrochimiquement qui permet de concevoir des outils analytiques ou d’accélérer des réactions lentes ou inversement de comprendre et d’optimiser de grandes réactions de catalyse organométalliques homogènes ou hétérogènes, même lorsqu’elles n’impliquent pas de transferts électroniques stricto sensu.

L’électrochimie permet aussi de construire ou agencer de nouvelles molécules ou réaliser de nouvelles interfaces fonctionnelles. En chimie des solutions, il s’agit principalement de s’inspirer des résultats obtenus en électrochimie moléculaire ou en électrosynthèse afin de les appliquer à la chimie organique ou inorganique. Des développements nouveaux concernent l’utilisation des liquides ioniques à basse température et sont susceptibles de dégager de nouvelles voies de synthèse en chimie verte. Un autre volet important concerne l’élaboration de matériaux et de structures moléculaires, composites ou hybrides. En participant à la compréhension de systèmes de plus en plus complexes, l’électrochimie permet l’élaboration de systèmes de nouvelle génération dont les propriétés ne correspondent plus à une simple addition des propriétés de leurs composants élémentaires isolés.

B. Électrochimie localisée, nanosciences

L’électrochimie localisée permet de construire des surfaces fonctionnalisées et nanostructurées et d’atteindre à très bas coût des échelles ultimes en élaborant des filaments métalliques, des contacts atomiques ou des nanofils constitués de quelques molécules. L’électrochimie localisée est essentielle aux nanosciences dont elle constitue une branche.

Basé sur l’avènement des ultramicroélectrodes et des nanoélectrodes et sur le développement des microscopies en champ proche, le microscope électrochimique est maintenant couplé avec des méthodes spectroscopiques locales qui permettent d’entrevoir des perspectives nouvelles variées.

Un développement récent concerne la fonctionnalisation locale et précise des surfaces actives en combinant les principes des réactions développées pour l’électrosynthèse de matériaux à l’échelle macro et l’ultramicroélectrochimie. Les domaines d’applications sont divers : électronique moléculaire et organique (molécules redox pour mémoires moléculaires, transistors organiques, matériaux nanostructurés en photovoltaïque, OLEDs, etc.), matériaux et biomatériaux pour capteurs, matériaux fonctionnels intelligents, etc.

D’une manière plus générale, l’électrochimie localisée intervient dans des domaines nouveaux pour elle, comme la nanoélectronique. Ainsi, bon nombre de dispositifs de mémoires et quelques dispositifs logiques considérés par l’ITRS (International Technology Roadmap for the Semi-conductor) comme susceptibles d’émerger dans les cinq à dix prochaines années sont basés sur des réactions électrochimiques localisées sur des surfaces de moins de 400 nm2 et dans des électrolytes solides ou polymères confinés d’épaisseurs nanométriques. La compréhension des phénomènes rédox dans de tels milieux est très certainement un enjeu important de la prochaine décennie. De tels dispositifs, couplant électrochimie et nanoélectronique justifient l’emploi du terme « nanoélectroionic » de plus en plus utilisé dans cette communauté.

L’établissement de relations structures/propriétés et/ou structure/réactivité, la compréhension des phénomènes au sein de milieux confinés (électrodes modifiées, polymères, mono et multicouches organisées, dispositifs de nanoélectronique, nanogaps, nanopores…) est une tendance lourde qui doit être encouragée. L’électrochimie peut être mise à profit pour structurer les surfaces d’électrodes, notamment par électrogénération de dépôts métalliques, électroactifs, semi-conducteurs ou même sol-gel. Les substrats ainsi obtenus servent de base et de plate-forme pour de nouvelles recherches dans les domaines abordés dans ce rapport

Enfin, notons également l’émergence de l’électrochimie bipolaire qui s’est développée dans de multiples directions (synthèse de particule Janus, maîtrise de la localisation de la réactivité sur des micro-objets…). Cette thématique devrait poursuivre son essor avec des applications potentielles non seulement dans le domaine des nanosciences mais également en chimie analytique et en chimie des matériaux.

C. Électroanalyse, bioélectrochimie

Contrairement à d’autres techniques, l’électrochimie peut être bien adaptée au dosage direct en milieu réel, tant dans le contrôle de la qualité des eaux qu’en analyse biomédicale. La recherche porte surtout sur la miniaturisation et l’augmentation de la sélectivité et sensibilité, avec un accent très marqué sur la biologie.

Les techniques électrochimiques sont pour la plupart sensibles aux gradients de concentration et non à la quantité de matière. Cette propriété intrinsèque est un extraordinaire avantage lorsque l’on cherche à miniaturiser dans le cas de quantités à détecter réduites. La mise au point de méthodes cinétiques capables de lire une information locale (femtoL) et s’appuyant sur les concentrations doit permettre des avancées spectaculaires dans des domaines cruciaux (mécanismes du vivant…). L’association entre micro- (nano-) électrochimie analytique et microfluidique représente un apport considérable. Les électrochimistes s’efforcent d’atteindre une détection simultanée, directe et in situ de plusieurs analytes sans perturber le système vivant et il semble que seuls les réseaux de microcapteurs électrochimiques soient capables d’apporter une solution.

Pour améliorer la sélectivité d’une électrode, la stratégie consiste à fonctionnaliser l’interface par le greffage ou l’immobilisation de récepteurs ou de catalyseurs chimiques, biochimiques ou biologiques permettant une reconnaissance moléculaire. Le développement de ce domaine, très actif en France, implique différents champs disciplinaires en chimie et biologie. Un autre objectif concerne le développement de nouveaux modes de transduction permettant l’obtention de seuils de détection femto voire attomolaire.

Un autre axe émergeant est focalisé sur le développement durable avec la production d’énergie électrique par bioconversion électro-enzymatique. Plusieurs laboratoires s’intéressent aux biopiles produisant de l’énergie électrique grâce à la conversion de substrats divers à partir de micro-organismes ou d’enzymes. Le domaine a bénéficié récemment d’avancées notables, mais encore éloignées d’applications de grande envergure.

Des tests d’implantation de biopiles chez l’animal, basés sur la transformation de fluides physiologiques sont déjà une réalité, et ont permis l’alimentation de petits appareils médicaux. Très récemment, une nouvelle génération de biopiles, basée sur l’hydrogène, analogue aux piles à combustible basse température, a été mise au point en vue d’applications dans les domaines de l’alimentation ou de l’électronique portable. Les chercheurs de la section 13 sont moteurs, voire pionniers, dans ce domaine en expansion, dont la crédibilité dépendra d’une forte synergie entre électrochimistes, chimistes des matériaux et biochimistes.

D. Stockage, transformation de l’énergie

Le développement des énergies renouvelables, comme l’éolien et le photovoltaïque nécessite de pouvoir stocker l’électricité produite de façon intermittente, ce que permettent les accumulateurs électrochimiques. L’idée est de stocker ces énergies dans des liaisons chimiques via l’électrolyse de l’eau en oxygène et hydrogène dans des conditions très variées ou la réduction du dioxyde de carbone permettant sa valorisation. C’est ici que l’électrochimie et, en particulier l’électrocatalyse, a un rôle essentiel à jouer. La catalyse de ces réactions, qu’elle soit homogène ou supportée, fait appel principalement aux complexes de métaux de transition. L’immobilisation de biocatalyseurs ou de catalyseurs biomimétiques sur substrats semi-conducteurs, capables de photosynthèse artificielle, est un axe à développer, conjointement avec les études sur le transfert d’électrons au sein de macromolécules biologiques.

Le développement des énergies nouvelles, la volonté de disposer de sources autonomes d’énergie électrique pour l’alimentation de petites centrales ou d’appareils portables dans divers domaines (microélectronique, santé, défense, sécurité, domotique, télécommunications, loisirs etc.) et l’essor des véhicules électriques et hybrides ont engendré d’intenses efforts de recherche dans le domaine des générateurs électrochimiques. Paradoxalement, l’implication des électrochimistes dans ces thématiques de recherche n’est pas encore à la hauteur des enjeux et l’apport de chercheurs de culture « électrochimie » dans le domaine des générateurs électrochimiques doit donc être renforcé.

Le réseau RS2E a su fédérer une grande part du potentiel français autour de la thématique du stockage électrochimique de l’électricité et des chercheurs de la section 13 y ont un rôle actif, notamment sur l’aspect chimie théorique pour la compréhension et la prédiction des caractéristiques électrochimiques de matériaux d’électrodes de batteries lithium-ion et de supercondensateurs. Sur le plan fondamental, des avancées importantes sont possibles si un véritable développement d’une électrochimie des films minces voit le jour car cette configuration de matériaux étudiés purs permet le contrôle de paramètres électrochimiques majeurs et l’acquisition de données électrochimiques et structurales de haute qualité. De nombreuses applications y gagneraient (capteurs, MEMS, cartes à puce…). Des synthèses chimiques de nouveaux matériaux d’électrode pour batteries lithium-ion ou sodium-ion, ou électrochimiques sont réalisées en milieu liquide ionique basse température ou sels fondus haute température. La compréhension des relations structure-électrochimie est renforcée dans certains cas par l’apport de spectroscopies diverses (RPE, RMN, XPS, Mössbauer…) ou de microspectrométrie Raman développées via des dispositifs in situ. Dans ce dernier cas, des développements théoriques récents ont permis d’améliorer la description des changements structuraux au niveau de la liaison atomique. Enfin, des systèmes originaux et prometteurs sont en cours d’étude comme la batterie au fluor et le système sodium-ion, systèmes émergents offrant un bon compromis coût-performances. La synthèse et la caractérisation physico-chimique de nouveaux électrolytes performants, notamment à tension élevée restent un objectif. Des équipes proposent de nouveaux électrolytes polymères pour accumulateurs au lithium mais aussi des mélanges polymères fonctionnels et nouveaux liquides ioniques à conduction protonique dotés d’une stabilité thermique et électrochimique améliorée pour les piles à combustible ou les batteries.

Dans le cas des piles à combustible, le GDR, HySP à C (2014-2017), regroupe les communautés piles à combustible, systèmes et stockage de l’hydrogène. L’émergence des nanotechnologies fortement ancrées dans l’évolution des piles à combustible devient aussi un des aspects clés des batteries, requérant un effort de modélisation à l’échelle atomique. L’optimisation des différents systèmes de piles à combustible est un sujet très vaste, mais on peut souligner, par exemple, pour les piles à combustible à oxyde solide (SOFC) l’intérêt d’en abaisser la température opérationnelle en intervenant au niveau de la nature et microstructure de la cathode, de l’électrolyte ou de catalyseurs à l’anode. Certains composés comme les cérates de baryum sont susceptibles de devenir conducteurs protoniques et donc d’abaisser significativement la température. Chaque type de pile requiert une approche multidisciplinaire différente, ce qui explique la diversité des recherches menées.

V. Spectroscopie et photochimie

L’interaction lumière/matière est un domaine fortement interdisciplinaire, en interface avec la physique, la biologie, la chimie des matériaux ou des surfaces, etc. La spectroscopie permet de caractériser la matière en utilisant son interaction avec la lumière tandis que la photochimie vise à induire et exploiter des transformations chimiques sous l’effet de la lumière. Ces deux aspects sont intimement liés, et les diagnostics spectroscopiques sont fréquemment utilisés pour sonder les réactions photochimiques. Ils ne se limitent cependant pas à ceux-ci mais sont utilisés comme sonde des mécanismes de réactions induites par différents moyens électrochimiques, radiochimiques… Les évolutions en cours sont souvent liées au développement de sources novatrices, soit par leur domaine spectral (des sources THz aux lasers à électrons libres), soit par leur taille. Ces dernières années, la photochimie a élargi son champ d’action de la compréhension des processus photo induits à la conception de systèmes à fonctionnalité bien définie avec des applications précises.

A. Sonder la matière

L’essor récent de la spectroscopie dans le domaine THz, que ce soit auprès du rayonnement synchrotron ou de sources de laboratoire, ouvre des possibilités nouvelles dans l’étude des mouvements moléculaires de grande amplitude, et de la phase condensée : liaison hydrogène, structure et mouvements collectifs dans les liquides ou leurs interfaces, études de solides, applications analytiques ou à l’étude des matériaux.

Dans les régions spectrales de l’IR ou UV proche, les études en phase gazeuse s’orientent vers la caractérisation structurale et la photosensibilité de systèmes biomimétiques complexes, peptides, sucres, alcaloïdes, bases de l’ADN et nucléotides. Elles fournissent des modèles de plus en plus réalistes des systèmes, des facteurs structuraux affectant leur réactivité, et des interactions mises en jeu et des facteurs qui les contrôlent : présence d’un cation métallique, hydratation, isomérie conformationnelle et chiralité des constituants. L’avènement récent de pièges à ions cryogéniques ouvre le champ à des études sur les systèmes chargés, avec une résolution spectroscopique accrue. Les couplages entre spectrométrie de masse et spectroscopie optique trouvent de nombreuses applications dans l’élucidation des mécanismes réactionnels, en particulier catalytiques, et intègrent de nouvelles dimensions comme la mobilité ionique.

L’astrochimie et l’astrophysique de laboratoire sont présentes en section 13 à travers la spectroscopie et la réactivité en phase gazeuse ou en matrice de gaz rare d’espèces des atmosphères planétaires ou du milieu interstellaire. L’essor de ce type d’étude a été facilité par les sources modernes de rayonnement synchrotron, en particulier dans le domaine de l’UV lointain.

Les techniques chiroptiques sont un outil performant pour les études structurales et des interactions moléculaires. Elles trouvent des extensions nouvelles grâce au rayonnement synchrotron ou au développement de méthodes résolues en temps. Elles sont par ailleurs liées au développement de matériaux innovants utilisant ou provoquant la polarisation de la lumière.

Les méthodes d’imagerie ont acquis une place prépondérante en spectroscopie, notamment du fait des nombreuses applications de la microscopie optique pour l’observation non-invasive de systèmes chimiques ou biologiques, et dans le domaine de la santé et des matériaux du patrimoine. Le développement des méthodes super-résolues est lié à celui de nouveaux chromophores, dont certains ont des propriétés de sonde multimodale permettant de coupler des méthodes d’imagerie distinctes. Le couplage de l’imagerie optique avec des techniques microscopiques ou physico-chimiques complémentaires, telles que la spectroscopie transitoire, l’électrochimie, les microscopies à force atomique ou électroniques, constitue également une voie de recherche prometteuse.

B. Induire et sonder les transformations de la matière

Les études spectroscopiques résolues en temps couvrent un large domaine et les méthodes diffèrent selon qu’on est en phase gazeuse, où des méthodes de type pompe sonde reposant sur des spectroscopies d’action sont appliquées, ou en phase condensée. Les objets d’étude ont évolué vers les systèmes complexes voire environnés dans un matériau ou une matrice biologique. La compréhension des mécanismes de la photostabilité des molécules du vivant reste très actuelle en phase condensée, en particulier dans le cadre des photodommages à l’ADN, comme en phase gazeuse où on s’intéresse à la dynamique de photofragmentation. L’avènement récent des lasers à électrons libres dans le domaine des rayons X a ouvert la porte à des études dynamiques nouvelles, telles le transfert de charge pendant le processus de fragmentation. L’évolution des cohérences, vibrationnelles ou électroniques, est un aspect de la spectroscopie rapide plus récent dans le paysage de recherche français. Il nécessite un soutien théorique fort, actuellement en plein essor.

Les méthodes résolues en temps sont également combinées à des sources radiolytiques ou de rayons X et trouvent des prolongements avec le rayonnement synchrotron. L’étude de problématiques complexes liées à l’intégration de fonctionnalités physico-chimiques multiples, nécessite le développement d’instrumentation performante en termes de résolution temporelle et combinant des techniques d’analyses complémentaires, conductivité résolue en temps, potentiel de travail, etc. Celles-ci pourront combiner l’excitation multi-impulsionnelle et la microscopie optique afin d’explorer les phénomènes de cohérence et de communication entre les phénomènes recherchés.

C. Exploiter les processus photochimiques

Les propriétés photo-modulables constituent un domaine de recherche très actif, de la compréhension de la propriété au niveau moléculaire à la conception de dispositifs complexes. Les objectifs sont d’obtenir des propriétés de forte brillance, longue durée de vie, domaine spectral étendu, effets non linéaires (absorption à deux photons, up-conversion), émission stable à l’état agrégé ou solide, présence de fonctions de reconnaissance spécifiques, etc. Les propriétés de photoactivation des molécules photochromes ou les propriétés plasmoniques des nanoparticules métalliques sont également recherchées pour modifier, inhiber ou exalter d’autres propriétés moléculaires optiques (linéaires ou non-linéaires), magnétiques, mécaniques, voire leur activité biologique ou leur réactivité chimique.

L’élaboration de matériaux photoactifs pour l’électronique moléculaire a beaucoup progressé et s’est révélée être un moteur puissant pour engendrer des fonctionnalités nouvelles au sein de dispositifs électroniques. À terme, les futurs dispositifs électroniques organiques intégreront des fonctionnalités photoactivables et se démarqueront ainsi des dispositifs actuels au silicium.

D. Photophysique et photochimie à l’échelle nanoscopique

Les nano-objets se caractérisent par leur taille qui influe directement leurs propriétés par un effet de confinement. Si les effets de la taille sur la délocalisation du nuage électronique dans les nanoparticules métalliques (bande plasmon) sont relativement bien compris, les effets de la topologie (forme, rugosité) restent difficiles à prévoir et pourraient permettre un ajustement fin de leurs propriétés. La conception d’architectures moléculaires résultant de l’agrégation contrôlée de molécules et ayant des fonctions de sonde locale permet de combiner un traitement élémentaire du signal avec la détection et l’amplification.

La génération de lumière par des particules dont la taille est inférieure à la longueur d’onde de la lumière émise permet de fabriquer des sources de lumières singulières (point light sources) ou à émission de photons uniques dont on peut contrôler les propriétés (énergie, polarisation, cohérence).

E. Photochimie et défis sociétaux

La photochimie intervient dans plusieurs domaines à fort impact sociétal, liés à la chimie de l’environnement ou aux sources d’énergie renouvelables.

Le développement de capteurs chimiques ou physiques aux propriétés optiques ultrasensibles, spécifiques et portables, constitue un domaine à fort potentiel de valorisation industrielle. Une problématique importante pour la chimie de l’environnement est la transformation des micropolluants après absorption de la lumière solaire dont dépend la mise au point de processus de dépollution photochimiques efficaces. Si les réactions dans la phase gaz semblent assez bien décrites, une grande incertitude reste à lever sur la réactivité en milieu hétérogène.

La conversion efficace de l’énergie solaire en électricité ou en carburant est une problématique commune à diverses communautés scientifiques et il est important d’accompagner le développement de ces nouvelles approches par des études physico-chimiques afin d’en prévoir le périmètre d’action et les limitations éventuelles. La fabrication de carburants renouvelables en utilisant l’énergie solaire pourra s’inspirer des systèmes électrocatalytiques en les couplant avec des photosensibilisateurs redox. Le développement d’un système en solution, sans électrodes, représente un réel défi.

F. Risques et atouts

La spectroscopie et la photochimie sont des disciplines bien structurées au niveau national, notamment à travers le Groupe Français de Photochimie, Photophysique, et Photosciences et plusieurs GDR. Elles possèdent une forte visibilité internationale, facilitée par la présence en France de sources de lumière innovantes, comme le synchrotron Soleil et le laser à électrons libres infrarouge CLIO. La diffusion de neutrons est aussi utilisée, en particulier pour les systèmes à liaisons hydrogène. Elles bénéficient d’une synergie avec la chimie théorique française, en ce qui concerne en particulier l’exploration de surfaces de potentiel complexes et la description des états électroniques excités. Le développement de systèmes intégrés, parfois hybrides et possédant de nombreuses interfaces, posera de nouvelles questions dans ce domaine. La recherche française souffre cependant du vieillissement de certains instruments et a pris un certain retard sur le développement de laser à électrons libres dans le domaine de l’UV lointain et des rayons X (XFEL).

Un risque majeur à moyen terme est que l’enseignement des concepts de spectroscopie et de photochimie est en train de disparaître dans de nombreuses universités françaises, contrairement à ce qui se produit dans d’autres pays d’Europe. Le potentiel offert par ces disciplines comme outil de diagnostic dans des problématiques à fort impact sociétal conduit de plus en plus la spectroscopie et la photochimie vers des activités aux retombées applicatives potentielles. Si cela correspond à une évolution naturelle et tout à fait positive, il faut impérativement éviter qu’une maîtrise insuffisante des concepts à la base des dispositifs conçus et des diagnostics utilisés freine les développements originaux et novateurs.

G. La spectrométrie de masse

La spectrométrie de masse a connu plusieurs évolutions marquantes ces dernières années, en raison du développement de nouvelles technologies d’analyseurs, de nouvelles méthodes d’analyse structurale, et d’une maîtrise croissante des sources. Les couplages entre la spectrométrie de masse et d’autres techniques se sont étendus, ouvrant la voie à de nouveaux types d’expériences multidimensionnelles : masse et RMN, masse et spectroscopie optique, masse et mobilité ionique.

Les améliorations expérimentales apportées sur les conditions de sources et sur les couplages avec des méthodes séparatives permettent d’analyser presque tous les échantillons, même présents en très petites quantités, avec des limites de détection de l’ordre de quelques attomoles. Des systèmes auparavant difficiles à ioniser deviennent accessibles grâce à aux techniques de photoionisation à pression atmosphérique (APPI) ou à l’amélioration des matrices MALDI. Un point notable des développements de ces dernières années est l’accessibilité accrue à la haute résolution (20 000 – 400 000) et à la précision en masse (de l’ordre du ppm) rendues possibles par la constante amélioration et baisse de prix des analyseurs à temps de vol et des pièges électrostatiques de type Orbitrap. La ultra-haute résolution sur analyseurs FT-ICR a connu des progrès importants, rendant accessibles des résolutions supérieures à 10 000 000 en routine. L’amélioration de la sensibilité et l’accès à la haute résolution ont ouvert des champs d’investigation dans les domaines d’application confrontés à l’existence de mélanges très complexes comme les domaines biologiques, agroalimentaires ou encore environnement mais il existe encore un besoin important d’amélioration de la résolution pour caractériser ces mélanges. Une conséquence majeure de ces développements est la production de quantités importantes de données par les instruments récents, conduisant à des besoins d’un travail interdisciplinaire sur leur gestion, leur analyse et leur traitement par des méthodes statistiques adéquates.

La conception de dispositifs alliant ultra-haute résolution (> 100 000) et miniaturisation, en particulier les pièges de type Orbitrap, ouvrira probablement la voie à de nouvelles applications dans les domaines de la chimie de l’atmosphère ou l’astrochimie, ou des applications sociétales.

L’imagerie de spectrométrie de masse a connu un fort développement ces dernières années. Cette technique permet de localiser des composés organiques ou inorganiques sur des surfaces biologiques, comme des coupes tissulaires, avec une résolution du micron. Elle trouve des applications dans le domaine médical ou des matériaux du patrimoine.

La communauté française développe une activité très visible au niveau international dans les couplages entre spectrométrie de masse et modes de caractérisation structurale originaux, comme l’excitation laser IR ou UV, la dissociation induite par capture d’électrons de faible énergie, ou enfin les stratégies impliquant les échanges hydrogène/deutérium pour la caractérisation structurale des protéines. L’ajout de la mobilité ionique aux expériences couplant spectroscopie et spectrométrie de masse ouvre désormais la voie à la caractérisation par spectroscopie vibrationnelle d’ions sélectionnés en masse et en forme. Elle a aussi une activité reconnue au plus haut niveau dans l’analyse de complexes supramoléculaires, l’imagerie par spectrométrie de masse, l’analyse top-down de protéines, la spectrométrie de masse dans le domaine de l’astrochimie, la chimie de l’environnement et l’éco-toxicologie. La communauté française est bien structurée à travers la Société Française de Spectrométrie de Masse et le réseau de Spectrométrie de masse FT-ICR (Fourier Transform Ion Cyclotron Resonance).

H. RMN et RPE

1. Résonance Paramagnétique Électronique

La RPE permet la détection et l’étude d’espèces à spin électronique non nul. Centrée uniquement sur les électrons « célibataires » et les interactions avec leur environnement, la RPE s’adresse en fait à de nombreux d’objets intervenant dans les propriétés physiques et chimiques de la matière, les fonctionnalités et l’évolution des matériaux, et le monde du vivant.

La dynamique engendrée par la renaissance en 2004 d’une association regroupant les utilisateurs de RPE (ARPE), a permis la création en 2012 d’un réseau national structuré en une fédération de recherche. Cette initiative a permis d’améliorer le niveau d’équipement au niveau national, d’améliorer le fonctionnement des laboratoires de la fédération, et d’offrir à des chercheurs extérieurs l’accès aux instruments et à l’expertise scientifique, sur la base de projets sélectionnés par un comité de pilotage.

En outre, la structuration de la communauté Française de RPE à travers l’ARPE et la fédération a permis des actions de formations à destinations des chercheurs. Le dynamisme de la communauté des utilisateurs est également bien illustré par l’organisation de journées scientifiques annuelles et de congrès internationaux.

2. Résonance Magnétique Nucléaire

La RMN est une technique centrale en chimie, en biochimie et en science médicale. Elle est utilisée pour la caractérisation à l’échelle atomique ou moléculaire de catalyseurs, de polymères, de verres, de cristaux liquides, de systèmes supramoléculaires, de produits naturels, de membranes, de protéines, et de contaminants chimiques mais la plus grosse part des échantillons analysés reste les produits et intermédiaires de synthèse. Les développements technologiques et méthodologiques actuels visent à augmenter la sensibilité et la résolution, à diminuer le temps d’analyse et à combiner les approches de spectroscopie et d’imagerie. Comme thèmes émergents on peut citer la métabolomique, l’imagerie cellulaire, la spectroscopie in-vivo, les méthodes de calculs de paramètres RMN, et la mise au point de spectromètres portables.

La communauté RMN française est active et visible avec une bonne représentativité dans tous les grands domaines de la RMN : méthodologie, simulation, applications biologiques et matériaux. La RMN française est également bien structurée grâce à un TGIR, plusieurs fédérations de recherche, et une association (GERM) qui organise des congrès et des écoles d’été et centralise un certain nombre de documents de cours sur la RMN.

Le parc de spectromètres Français est constitué d’environ 230 machines. Le TGIR permet aux utilisateurs d’avoir accès à des spectromètres hauts champs. Les machines de pointe sont régulièrement mises à jour et dotées des accessoires les plus performants. La quasi-totalité des machines françaises sont de marque BRUKER ce qui a des avantages pour la formation des utilisateurs et la maintenance mais constitue aussi un monopole qui pourrait s’avérer dangereux.

Même si l’interprétation des spectres de RMN est enseignée partout en France au niveau licence de chimie et biochimie, on peut souligner le peu d’enseignement de RMN de haut niveau en France. Le problème est d’autant plus sérieux que la recherche en RMN se situe aux interfaces et nécessite des compétences croisées.

En termes de risques on peut souligner l’augmentation des prix de l’hélium, ressource non renouvelable.

Conclusion

La communauté scientifique constituant la section 13 du CoNRS est globalement en bonne santé comme l’attestent les nombreux développements scientifiques ou techniques qu’elle affiche. De par sa position centrale entre la Physique et la Biologie elle réalise des applications technologiques innovantes et apporte des réponses pertinentes aux grands défis sociétaux. Au vu des nombreuses pistes évoquées pour passer les obstacles scientifiques, on peut se féliciter de sa créativité et de son dynamisme. Cependant, comme toutes les disciplines à l’interface de plusieurs autres, le risque de devenir prestataire de service n’est pas nul ainsi que celui d’être englobé par les autres. Ces menaces se font déjà ressentir sur les formations où la physico-chimie peut être rapidement considérée comme auxiliaire, ou présentée comme un outil au service des autres sciences.

La recherche crée le savoir et l’enseignement le transmet. Ces deux aspects sont indissociables pour qui souhaite la pérennité de notre communauté.