Section 13 Chimie physique, théorique et analytique

I. Chimie théorique

La chimie théorique a pour objectif la compréhension et la prédiction des propriétés physico-chimiques de la matière. Cette science transdisciplinaire, née entre physique moléculaire et chimie, a noué des liens forts avec la physique du solide et les sciences de la vie. Elle développe des méthodes et formalismes qui sont implantés dans des logiciels nécessitant des ressources informatiques considérables. Elle propose aussi des modèles plus simples faisant appel à des approximations judicieusement choisies et permettant de rationaliser nombre de phénomènes physico-chimiques. Les programmes actuels permettent ainsi d'étudier des systèmes dont la taille va de l'atome aux matériaux en passant par les molécules. Pour modéliser ces systèmes de manière réaliste, la chimie théorique décrit aussi bien leurs propriétés statiques que dynamiques. Elle est ainsi devenue un des piliers de la chimie et les synergies Théorie/Expérience sont un moteur pour la conception de nouveaux objets, leur caractérisation expérimentale et la production de nouvelles méthodes. Si les propriétés de la matière et le besoin de les rationaliser constituent souvent le point de départ d'un développement méthodologique, les avancées en matière de formalisme permettent aussi d'impulser de nouvelles applications et d'orienter les expériences. Grâce à son arsenal de techniques, la chimie théorique peut décrire un ensemble de phénomènes physico-chimiques intervenant à des échelles spatiales et temporelles variées, en représentant de manière plus ou moins explicite la complexité du système.

A. Les différents visages de la complexité

Quel que soit le système ou la propriété cible, l'objectif premier du théoricien est de déterminer la ou les méthodes les plus adaptées. Ce choix est conditionné par le type de complexité à traiter et les grandeurs à calculer, mais aussi par le rapport précision/coût calculatoire souhaité ou accessible avec les méthodes disponibles. Si la taille des objets reste un critère incontournable dans le choix du formalisme, les avancées méthodologiques en matière de développement et d'efficience numérique permettent d'étendre chaque jour les potentialités des méthodes les plus sophistiquées pour traiter des systèmes de taille croissante. En même temps, la volonté de traiter des propriétés toujours plus complexes faisant parfois intervenir plusieurs acteurs en dehors du système actif place les méthodes semi-classiques ou classiques au cœur de développements ambitieux, si bien que le fossé entre tout quantique et tout classique s'est fortement réduit, ouvrant la voie aux méthodes « hybrides » (mariage de différents formalismes) ou aux approches multi-échelles (couplage de différentes échelles spatiales ou temporelles).

1. Complexité liée aux interactions

L'accès aux propriétés statiques d'un système dépend du degré de complexité des interactions électron-électron ou électron-noyau et oriente le théoricien vers des méthodes basées sur la fonction d'onde (WFT) ou sur la densité (DFT). Les premières proposent une résolution numérique approchée de l'équation de Schrödinger et concernent des systèmes de taille restreinte. Elles sont les seules capables de décrire correctement des systèmes dont les propriétés électroniques sont gouvernées par des interactions faibles (type Van der Waals), des interactions entre électrons essentiellement localisés, ou par les états excités et sont donc bien adaptées au traitement de propriétés comme le magnétisme ou la photo-réactivité de petits systèmes. Les méthodes DFT prennent en compte certaines de ces interactions de manière empirique ou effective, mais leur moindre coût numérique permet de traiter la structure électronique de systèmes plus grands (quelques centaines d'atomes). Elles ont pris une place prépondérante dans le domaine des matériaux et sont de plus en plus employées pour analyser la réactivité aux interfaces, trouvant ainsi de nombreuses applications dans le domaine de la catalyse, de l'optoélectronique ou encore de l'électrochimie.

2. Complexité liée à l'environnement

Modéliser les effets de l'environnement sur les propriétés d'un système est un axe clé des développements de la chimie théorique. L'environnement d'un système peut prendre plusieurs formes et sa prise en compte dépend de la représentation choisie par le théoricien. Les modèles de continuum polarisable permettent une modélisation implicite dans un calcul quantique, et traitent les effets de polarisation induits par un solvant sur la réactivité d'une molécule. Les méthodes QM/MM concilient les échelles quantique (Quantum Mechanics) et classique (Molecular Mechanics) et autorisent un traitement explicite de l'environnement. Très utilisées dans le domaine de la biologie, elles ont permis de décrire la réactivité chimique au sein d'un environnement complexe. La modélisation de ces systèmes de grande taille est progressivement devenue possible d'une part via la croissance des ressources de calcul disponibles, et d'autre part via le développement de simulations mésoscopiques (dynamique brownienne) couplées à des représentations gros-grains adaptées à des objets biologiques variés. Dans cette perspective, la relecture des rapports de conjoncture antérieurs permet de mesurer les progrès effectués en matière de taille des systèmes simulés : en 1989, la limite supérieure se situe à 5 000 particules, en 1994, on passe à 10 000. Les systèmes ciblés comportent désormais plusieurs centaines de milliers d'atomes, simulés sur près d'une microseconde.

3. Complexité liée à la réactivité

Le terme réactivité désigne une multitude de processus décrivant la réponse du système à un changement de composition, de conformation, ou à une perturbation extérieure. Le traitement théorique de la réactivité fait face à de nombreux verrous méthodologiques, surtout liés au fait que plusieurs états électroniques peuvent être impliqués dans le mécanisme de réaction. Les interactions entre états électroniques mènent à des chemins réactionnels complexes et à des modifications drastiques des surfaces d'énergie potentielle. Les calculs des grandeurs thermodynamiques de réaction et des surfaces d'énergie potentielle s'en trouvent donc particulièrement complexifiés, nécessitant souvent l'usage de méthodes multi-références. De par leur considération explicite du temps, les méthodes de dynamique quantique permettent de traiter la réactivité de ces systèmes complexes et d'accéder à leurs propriétés spectroscopiques avec une résolution de l'ordre du cm-1. Dans ce domaine, les questions clés restent le choix des dimensions actives et le traitement des coordonnées « inactives » via des approches hybrides et multi-échelle où l'effet de ces degrés de liberté peut être assimilé à celui d'un environnement.

B. Quelques défis et thèmes émergents

Parmi les thèmes émergents ou les grands défis de la chimie théorique, on distingue des thématiques visant à produire de nouvelles méthodologies ou à les améliorer, d'autres plus applicatives se situant dans le domaine de la recherche fondamentale ou très en amont et enfin celles qui embrassent les grands défis sociétaux. Il ne s'agit pas ici d'en dresser une liste exhaustive mais d'en citer quelques-uns.

1. Sur le versant méthodologique

Le traitement simultané des corrélations non-dynamique et dynamique par des méthodes de fonction d'onde reste un grand défi. Disposer de la fonction d'onde donne une force interprétative notable, et à ce titre les méthodes de type Valence Bond sont amenées à se déployer. De nombreuses tentatives d'unir les méthodes variationnelles et perturbatives permettent de traiter des systèmes de taille compatible avec celle des objets réels, tandis que leur mariage avec d'autres techniques comme celles incluant les distances interélectroniques explicitement ou le Monte Carlo Quantique en augmente la précision. De plus, les apports des méthodes basées sur la matrice densité DMRG (Density Matrix Renormalization Group ou Density matrix embedding) ont permis des avancées considérables. Les méthodes basées sur la fonctionnelle de la densité connaissent également des améliorations notables avec l'optimisation de fonctionnelles par « machine learning » (de l'ordre de 105 paramètres), l'introduction de corrections semi-empiriques de dispersion, ou la combinaison de méthodes de fonction d'onde avec la DFT. Au-delà de la TD-DFT beaucoup d'efforts sont également déployés vers la définition d'une DFT pour les états excités.

L'importance des effets relativistes dans la chimie des éléments lourds ou pour la description de propriétés comme la RMN ou la RPE conduit à de nouveaux développements : modélisation des effets de polarisations par spin-orbite, dérivation de nouveaux Hamiltoniens relativistes à deux composantes, ou prise en compte des effets de l'électrodynamique quantique.

L'apparition d'ordinateurs à grand nombre de cœurs de calculs (actuellement petaflop, et la course est lancée vers l'exaflop) induit un changement de paradigme dans le domaine de la simulation numérique et les approches stochastiques seront probablement amenées à jouer un rôle croissant dans le futur, voire à se substituer aux approches standards de l'algèbre linéaire. Ces algorithmes s'appliquent en effet très bien aux méthodes traditionnelles de la chimie quantique et en décuplent les potentialités. La perspective d'ordinateurs quantiques induit aussi un bouleversement de notre conception de l'algorithmique.

Le problème majeur du traitement quantique du mouvement des noyaux reste le nombre de degrés de liberté. Si certaines méthodes de dynamique quantique sont désormais applicables à des systèmes moléculaires de taille intéressante pour la chimie, par exemple l'approche ML-MCTDH (Multi-Layer-Multi-Configuration Time-Dependent Hartree), d'autres méthodes comme les intégrales de chemin permettent d'envisager des systèmes encore plus grands, grâce à un traitement classique de certains degrés de liberté bien choisis. Des approches combinant collocation et réseaux de neurones afin d'éviter l'utilisation de fonctions d'énergie potentielle et le calcul d'intégrales sont également prometteuses.

Ce panorama serait incomplet si l'on omettait les problèmes de traitement et d'exploitation des données calculées et recensées. L'accroissement des ressources informatiques a induit le développement de bases de données chimiques comprenant de quelques centaines à plusieurs millions de composés. C'est ainsi qu'est née à la fin des années 60 la chémoinformatique qui se distingue de la chimie théorique traditionnelle par son aspect base de données, avec comme champ principal la molécule. Parmi les applications, citons la construction et l'interrogation de bases structurales, de bases de réactions, de synthèse et de rétro-synthèse assistée par ordinateur, la prédiction de propriétés physiques, chimiques ou biologiques, la résolution de structures, et le criblage virtuel à haut débit qui est une technique commune au Material Design et à la biologie structurale (recherche de pharmacophores, approches LBVS et SBVS, docking) où l'un des défis majeurs est la recherche de nouvelles structures candidates.

2. Sur le versant applicatif

Des développements méthodologiques importants sont attendus en réponse aux enjeux sociétaux et environnementaux en matière d'énergie, d'environnement, de nucléaire ou de santé. Le fonctionnement des cellules photovoltaïques, des piles à combustibles ou des batteries Li-ion repose ainsi sur des processus physico-chimiques intervenant à des échelles spatiales et temporelles très variées mais aussi bien souvent dans des conditions hors-équilibre. À ce titre, les approches multi-échelles (top-down ou bottom-up) émergent dans le paysage scientifique. Par ailleurs, les phénomènes photo-luminescents, qui couplent des calculs électroniques à des approches dynamiques sont au cœur d'un grand nombre de défis applicatifs.

Une part des activités du chimiste théoricien se situe à la frontière de la physique et vise à découvrir de nouvelles propriétés de la matière, ou encore à comprendre l'origine de certaines propriétés fondamentales. Il en va ainsi des travaux concernant la violation de la parité dans les systèmes moléculaires (qui permettraient de comprendre l'homo-chiralité biomoléculaire) ou des tentatives pour déterminer un dipôle électrique de l'électron. Elles contribuent à repousser les limites actuelles, théoriques (électrodynamique quantique, force électro-faible) ou expérimentales, en suggérant par exemple des expériences en physique moléculaire. Toujours en lien avec la physique, l'atto-spectroscopie est un thème émergent où la chimie quantique sera amenée à jouer un rôle important.

Les défis de la biochimie théorique concernent aujourd'hui des systèmes macro- et multimoléculaires fréquemment couplés à des questions médicales, tels que les capsides virales, le ribosome, le réseau de microtubules au sein de la cellule, ou encore les fibres amyloïdes liées à la maladie d'Alzheimer.

Dans ce paysage, la communauté française est dynamique et bien reconnue internationalement. Elle se retrouve dans une constellation de GdR nationaux ou thématiques bien ciblés et un nombre plus restreints de réseaux à plus grande échelle. Du côté des supercalculateurs, la Maison de la Simulation créée récemment par le CNRS et le CEA a pour objectif de favoriser l'utilisation efficace par la communauté scientifique de ces grands équipements ainsi que la recherche dans le domaine du HPC (High Performance Computing).

C. Risques

Les systèmes frontières encore hors de portée des modélisateurs résultent de limitations à la fois quantitatives et qualitatives des méthodes de simulation. Sur le plan quantitatif, le foisonnement récent de grands centres de calculs mettant à disposition des chercheurs une puissance computationnelle inédite constitue une réponse possible à l'étude de systèmes supramoléculaires ou multiphasiques impliquant des échelles de temps et d'espace inaccessibles jusque-là. Néanmoins, il est crucial de ne pas perdre de vue que ces centres restent des outils au service des chercheurs, et ne peuvent fonctionner de manière pérenne que si des moyens humains à la hauteur de ces équipements de pointe sont mis en jeu. De plus, les volumes considérables de données qui sont produits par ces calculateurs n'ont de valeur que s'ils peuvent être ensuite analysés et exploités par des chercheurs.

Le choix d'un système cible, souvent motivé par l'existence de données expérimentales inexpliquées, stimule et oriente des développements méthodologiques novateurs qui offrent des outils théoriques applicables à une grande variété de systèmes. De fait, des chimistes théoriciens intègrent aujourd'hui des laboratoires de physique, chimie ou biologie, avec le risque d'être marginalisés par rapport aux équipes expérimentales qui représentent le « cœur » de l'activité du laboratoire. Les innovations méthodologiques sont le fruit des discussions de chercheurs issus de la même discipline travaillant ensemble au quotidien. L'existence d'unités de recherche entièrement consacrées à cette discipline est donc indispensable à l'émergence de nouvelles méthodes de simulations innovantes et il convient d'être vigilant face au risque d'isolement de certains chercheurs théoriciens souvent réduits à une activité de service au sein d'une unité dont les activités sont résolument tournées vers l'expérience.

D. Bilan

L'histoire récente de la chimie théorique a connu deux jalons essentiels que sont les prix Nobel de chimie décernés en 1998 à W. Kohn et J. Pople, et en 2013 à M. Karplus, M. Levitt et A. Warshel. Durant les quinze années qui séparent ces événements majeurs, la discipline a connu des bouleversements considérables, tant sur le plan méthodologique, menant à la multiplication des systèmes désormais accessibles à la modélisation, que dans sa relation avec le monde expérimental et industriel. Le prix Nobel de 2013 peut être vu comme un symbole de maturité de la chimie théorique, qui n'est plus seulement à même de reproduire des données issues de l'expérience, mais dispose également de capacités prédictives susceptibles de guider les expérimentateurs dans leur quête de nouveaux systèmes ou de nouvelles propriétés. Bien que la chimie théorique maintienne une activité en recherche fondamentale, son évolution récente témoigne d'une orientation vers une recherche plus technologique, résolument tournée vers des enjeux socio-économiques et environnementaux majeurs de notre société. Néanmoins, le cœur de métier de la chimie théorique reste celui des développements méthodologiques. Dans ce domaine, la chimie théorique française occupe une place reconnue et respectée dans la communauté internationale. Le constat est cependant moins glorieux en matière de valorisation puisque les codes de calculs commerciaux basés en partie sur les avancées méthodologiques françaises et aujourd'hui disséminés à l'échelle internationale n'ont toujours pas de licence française. À ce titre, il est capital qu'un juste équilibre soit maintenu par nos institutions entre les différentes sous-communautés de théoriciens, ceux qui développent les formalismes et les implantent dans les codes de calculs et ceux qui les utilisent pour accéder à une meilleure description d'objets toujours plus complexes.