Rapport de conjoncture 2014

Section 04 Atomes et molécules, optique et lasers, plasmas chauds

Extrait de la déclaration adoptée par le Comité national de la recherche scientifique réuni en session plénière extraordinaire le 11 juin 2014

La recherche est indispensable au développement des connaissances, au dynamisme économique ainsi qu’à l’entretien de l’esprit critique et démocratique. La pérennité des emplois scientifiques est indispensable à la liberté et la fécondité de la recherche. Le Comité national de la recherche scientifique rassemble tous les personnels de la recherche publique (chercheurs, enseignants-chercheurs, ingénieurs et techniciens). Ses membres, réunis en session plénière extraordinaire, demandent de toute urgence un plan pluriannuel ambitieux pour l’emploi scientifique. Ils affirment que la réduction continue de l’emploi scientifique est le résultat de choix politiques et non une conséquence de la conjoncture économique.

L’emploi scientifique est l’investissement d’avenir par excellence
Conserver en l’état le budget de l’enseignement supérieur et de la recherche revient à prolonger son déclin. Stabiliser les effectifs ne suffirait pas non plus à redynamiser la recherche : il faut envoyer un signe fort aux jeunes qui intègrent aujourd’hui l’enseignement supérieur en leur donnant les moyens et l’envie de faire de la recherche. On ne peut pas sacrifier les milliers de jeunes sans statut qui font la recherche d’aujourd’hui. Il faut de toute urgence résorber la précarité. Cela suppose la création, sur plusieurs années, de plusieurs milliers de postes supplémentaires dans le service public ainsi qu’une vraie politique d’incitation à l’emploi des docteurs dans le secteur privé, notamment industriel.

Composition de la section

Christian Bordas (président de section) ; Alexandre Matzkin (secrétaire scientifique) ; Lamri Adoui ; Isabelle Bouchoule ; Michel Brune ; Éric Constant ; Claudine Crepin-Gilbert ; Denis Douillet ; Stéphane Faure ; Pascale Hennequin ; Pascal Honvault ; Serge Huant ; Jean-Michel Isac ; Sylvie Jacquemot ; Pierre Joubert ; Robin Kaiser ; Marc Lefranc ; Franck Lepine ; Agnès Maître ; Andrea Simoni ; Marie-Claire Schanne-Klein.

Résumé

Ce rapport présente de manière synthétique l’analyse de la conjoncture scientifique nationale et internationale dans les domaines couverts par la section 04. Cette conjoncture est déclinée selon les quatre thématiques principales structurant la discipline : atomes et processus fondamentaux, physique moléculaire, laser et optiques, plasmas chauds.

Introduction

Reposant sur des théories bien établies qu’elle a très largement contribué à établir comme l’électromagnétisme ou la mécanique quantique, la physique développée en section 04 « Atomes et Molécules, Optique et Lasers, Plasmas Chauds » est plus que jamais une discipline extrêmement vivante qui a connu un renouveau fantastique au cours de la période récente. Ces renouvellements, autant conceptuels que dans l’ouverture du champ d’étude vers des échelles d’espace ou de temps plus larges ou vers la complexité, sont pour beaucoup liés à des ruptures technologiques radicales notamment dans le domaine des lasers. En découlent des avancées remarquables sur des sujets aussi divers que les atomes froids et gaz quantiques, l’optique et l’information quantique, la métrologie, les lasers de puissance et la physique des plasmas, mais également la dynamique à des échelles de temps sub-femtoseconde permettant de sonder directement le mouvement électronique dans les atomes ou molécules et les innombrables interfaces de la discipline avec des applications potentielles de l’optique et de la spectroscopie dans des domaines aussi variés que l’environnement, l’astrophysique, la chimie ou les sciences du vivant.

Discipline traditionnelle d’excellence en France, comme en témoignent les nombreux Prix Nobel, dont le plus récent de Serge Haroche en 2012, la physique atomique et moléculaire et l’optique sont plus que jamais ouvertes sur l’avenir et fertiles en innovations. De l’atome aux nanostructures, des échelles de temps ultrabrèves aux sources d’énergie de demain, de la compréhension des mécanismes élémentaires du vivant au diagnostic médical précoce, la physique des milieux dilués et de l’optique centrée autour de la section 04 est porteuse d’un avenir pluriel qui verra encore de nombreuses avancées au cœur du domaine et des interactions fructueuses avec les autres disciplines.

Sans être exhaustif, le présent rapport de conjoncture s’efforce de dresser un paysage représentatif des lignes de forces actuelles de la discipline selon quatre axes qui représentent très grossièrement chacun environ un quart des effectifs de la communauté travaillant dans ce domaine en France. Il est d’ailleurs difficile d’être plus précis en termes de répartition des effectifs dans les diverses sous-disciplines, tant l’intrication entre toutes ces activités est forte et la limite de moins en moins marquée non seulement entre ces sous-disciplines mais également avec les disciplines voisines comme la physique de la matière condensée, la physique théorique ou la chimie physique, et les disciplines a priori plus éloignées, tout particulièrement les sciences de la vie.

I. Processus fondamentaux en physique quantique ; physique atomique, atomes froids, gaz quantiques ; métrologie ; information quantique, optique quantique

A. Gaz quantiques

Depuis l’observation de la condensation de Bose-Einstein de gaz d’alcalins ultrafroids à la fin du siècle dernier, le domaine des gaz quantiques n’a cessé de progresser avec des percées remarquables.

Les expériences de condensation de Bose-Einstein ont été réalisées avec diverses espèces atomiques mais aussi avec des systèmes non atomiques. Par exemple, des condensats de polaritons, quasi-particules issues du couplage fort entre le mode d’une cavité optique et un exciton, ont été réalisés dans des microstructures à des températures relativement élevées. La maîtrise des condensats de Bose-Einstein atteint aujourd’hui un tel degré de maturité qu’il est possible de les guider dans l’espace (expériences de transport quantique) ou de concevoir des expériences d’ingénierie atomique. Ainsi l’implémentation de lasers à atomes a permis d’étudier l’interaction d’une onde de matière avec des défauts localisés et de mettre en évidence des phases topologiques jamais observées. La condensation dans les micropièges offre une ouverture prometteuse à la création d’états quantiques intriqués. Les atomes froids sont aussi un outil performant pour l’information et l’optique quantique et pour la métrologie.

L’un des principaux atouts du domaine des gaz quantiques est une interaction particulièrement fructueuse entre théorie et expérience. Dans ce cadre, des résultats importants ont été obtenus ces dernières années dans le domaine des gaz de bosons et fermions en interaction forte. Parmi les résultats marquants, les équations d’état ont été mesurées avec une précision de quelques pourcents et un comportement de liquide de Fermi a pu être mis en évidence. Grâce aux progrès de la technique de Monte-Carlo diagrammatique, l’équation d’état du gaz de Fermi unitaire a été obtenue pour la première fois dans l’espace continu. La superfluidité BKT d’un gaz de bosons 2D a été directement mise en évidence en observant la dynamique des vortex. L’universalité de la transition BKT en présence de désordre a aussi été étudiée par des nouvelles méthodes de Monte-Carlo quantique.

En atteignant le régime des fortes corrélations, les gaz et fluides quantiques sont devenus des systèmes modèles pour simuler le comportement quantique de systèmes plus complexes ou difficiles à réaliser expérimentalement. Le contrôle fin des paramètres microscopiques (paramètres du réseau optique, force de l’interaction, désordre) des gaz quantiques mène à un nouveau paradigme, où un système physique est utilisé comme simulateur quantique pour réaliser à la demande un hamiltonien donné. Les atomes froids permettent ainsi de résoudre des problèmes qui sont apparus dans d’autres domaines de la physique, notamment en matière condensée. Par exemple, les avancées réalisées sur la simulation du magnétisme classique et quantique avec un gaz sur réseau ouvrent des perspectives très importantes pour explorer des phénomènes critiques fondamentaux. Les phases des systèmes magnétiques sont nombreuses, avec pour dénominateur commun les fortes fluctuations quantiques des moments magnétiques de chaque atome. C’est dans ce cadre que des fluides quantiques dipolaires ont été réalisés avec des atomes de fort moment magnétique, où l’interaction dipolaire longue portée joue le rôle de l’interaction d’échange. Les atomes de Rydberg et les molécules polaires représentent d’autres exemples de systèmes caractérisés par le caractère anisotrope et à longue portée de l’interaction et pour lesquels des phases quantiques exotiques ont été prédites.

Le confinement en dimension réduite et/ou en présence de champs de jauge artificiels rend maintenant possible la réalisation de systèmes où les fluctuations quantiques ou thermiques jouent un rôle important, conduisant à des effets au-delà du régime de champ moyen désormais bien maîtrisé. Le contrôle dépendant du temps des paramètres dans les gaz quantiques permet enfin la préparation contrôlée de systèmes hors-équilibre. En parallèle, le développement de nouveaux outils théoriques (t-DMRG, Monte-Carlo dynamique) ouvre la voie à l’exploration et à la modélisation de la relaxation vers l’équilibre et de la propagation des corrélations quantiques dans ces systèmes.

D’importantes avancées technologiques permettent actuellement de refroidir et piéger des mélanges de bosons et fermions en dessous de la température de dégénérescence quantique. Des projets prometteurs sont en cours sur l’étude de mélanges d’atomes différents ou d’isotopes, en trois dimensions et en dimension réduite. À côté de l’étude d’un comportement quantique complexe, le refroidissement par laser s’ouvre à d’autres systèmes : antimatière, molécules et solides, applications industrielles.

Le domaine des molécules froides ouvre de nouvelles possibilités par rapport aux atomes. Les molécules possèdent une structure interne très riche et peuvent présenter des interactions anisotropes et à longue portée. Le caractère à longue portée de ces interactions rend les molécules froides extrêmement intéressantes comme briques de base d’un ordinateur quantique. Un impact majeur pour la physique est attendu en métrologie et mesures physiques de grande précision. Finalement, les molécules froides ouvrent de nouvelles perspectives dans le domaine de la chimie froide, où les effets quantiques deviennent dominants.

Enfin, de nouveaux résultats ont été obtenus sur les états liés d’Efimov à trois ou quatre corps, notamment sur la nature universelle de leurs niveaux d’énergie.

B. Ondes et désordre

La propagation d’ondes en milieu complexe est en train de connaître un développement important, avec de nombreux groupes en France se plaçant parmi les pionniers de leur communauté de recherche. Dans le domaine des atomes froids, la localisation faible et forte a été étudiée aussi bien pour des ondes de lumière diffusées par des grands nuages d’atomes froids que pour des ondes de matière diffusées par des potentiels optiques complexes.

Les enjeux qui se présentent dans un avenir proche concernent le rôle des interactions en présence de désordre. Les gaz ultra-froids permettent de contrôler les interactions de contact ou dipolaires, qui peuvent être ajustées entre autres par des résonances de Feshbach ou par une modification de la densité atomique. Le degré de contrôle exceptionnel des systèmes expérimentaux permet maintenant d’étudier le rôle important de la dimension du problème en passant de une, à deux, trois, voire de simuler des systèmes à quatre dimensions, avec à chaque fois des propriétés fondamentales spécifiques, comme le lien avec la superfluidité à deux dimensions, l’apparition d’une transition de phase pour la localisation d’ondes à trois dimensions ou le rôle spécifique des interactions sur la localisation qui dépend de la dimension de l’espace.

En ce qui concerne les effets de cohérence en diffusion d’ondes lumineuses par des atomes froids, des études récentes indiquent une différence importante entre un modèle d’ondes scalaires ou un modèle plus réaliste prenant en compte la nature vectorielle de la lumière. Le lien entre les approches de diffusion multiple avec la super- et la sous-radiance de Dicke est un autre sujet en cours d’exploration, tant sur le plan théorique qu’expérimental.

Les outils théoriques et numériques utilisés pour aborder les effets de cohérence en diffusion multiple connaissent aussi un développement important, empruntant des techniques de simulations de la physique atomique, de la matière condensée et de la physique mésoscopique. Le couplage théorie expérience est particulièrement fructueux et source de constantes évolutions dans le domaine.

De nouvelles approches exploitées initialement dans d’autres communautés sont de plus en plus utilisées pour les ondes lumineuses et les ondes de matière (cf. chap. III). Les aspects liés à l’optique quantique commencent à être pris en compte dans le traitement de la diffusion multiple, permettant d’étudier la robustesse de l’intrication et l’effet du bruit quantique en diffusion multiple ou la possibilité de guider un état de Fock à un photon à travers un milieu opaque, avec des retombées potentielles pour les mémoires quantiques basées sur des nuages atomiques ou l’utilisation des milieux complexes comme systèmes très multimodes pour l’information quantique.

C. Mesures de précision

Élaborer les lois fondamentales de la physique est une des grandes quêtes des physiciens. Pour tester la validité des théories fondamentales, une solution est d’accéder à des gammes d’énergies toujours plus importantes. C’est ce qui est accompli dans les accélérateurs. Une autre approche consiste à mesurer des phénomènes connus avec toujours plus de précision. C’est l’approche utilisée par une partie de la communauté de la section 04. Ces travaux s’accompagnent toujours d’un développement technologique important, et les instruments réalisés peuvent avoir des utilités hors du domaine de la physique.

Les mesures de précision se ramènent toutes à une mesure de fréquence et une référence de fréquence absolue de très grande stabilité est nécessaire. C’est pourquoi le développement d’horloges toujours plus précises est important. En France, ont été développées les meilleures horloges micro-ondes du monde. Elles utilisent des atomes froids dans un dispositif de fontaine, et définissent actuellement la seconde. Des horloges compactes sont en cours de développement au SYRTE, qui permettront un compromis encombrement/exactitude optimal. Des horloges à atomes froids vont aussi être envoyées sur satellite avec le projet PHARAO, qui aura des retombées importantes, notamment pour permettre la comparaison d’horloges terrestres entre elles. En termes de précision les horloges micro-ondes sont supplantées depuis quelques années par les horloges optiques : l’oscillateur de référence est alors une transition atomique dans le domaine optique, de très grand facteur de qualité. Même si les atomes neutres sont prometteurs (notamment grâce au fait qu’un grand nombre d’atomes peuvent être interrogés simultanément), la meilleure horloge optique est pour l’instant une horloge à ions. Notons aussi que certains groupes dans le monde envisagent de sonder une transition nucléaire située dans le domaine optique prédite pour le thorium.

Pour effectuer les mesures de précision, la référence de fréquence fournie par une horloge très précise doit être accessible. Ces dernières années, un progrès très important a été effectué et va permettre la dissémination de la référence de fréquence du SYRTE dans de nombreux laboratoires de France : c’est le réseau REFIMEVE+ qui transportera la référence de fréquence à travers le réseau fibré entre universités mis en place pour internet. Ceci constitue un atout important pour les laboratoires français.

Des senseurs inertiels de précision (gyromètres et gravimètres) basés sur l’interférométrie atomique sont développés. Des sensibilités aussi bonnes qu’avec les meilleurs instruments actuels ont été obtenues. Plus généralement, les interféromètres atomiques permettent de mesurer des forces avec une très grande précision. Le projet ForcaG vise à étudier les forces à courtes distances entre un atome et une surface, de façon à tester les théories de gravitation à courte distance et les forces de Casimir. Le projet MIGA consiste à utiliser des interféromètres atomiques pour détecter des ondes gravitationnelles, alternative intéressante au projet Virgo. Des études sont réalisées pour envoyer des interféromètres atomiques dans l’espace. S’ils permettront de réaliser des tests fondamentaux, les senseurs inertiels sont aussi utiles comme outils, pour la géophysique par exemple. Des interféromètres miniatures sont aussi développés qui visent à réaliser un compromis performance/encombrement. Les chercheurs de ce domaine ont effectué un travail conséquent de développement concrétisé par la création d’une entreprise commercialisant les interféromètres.

L’étude des transitions dans les atomes et les molécules permet de tester l’électrodynamique quantique. La France a un rôle de premier plan dans ce domaine. Ainsi, la meilleure détermination de la constante de structure fine est maintenant obtenue à partir de la mesure de h/M pour l’atome de Rubidium, réalisée en étudiant les oscillations de Bloch. Cette mesure permet le test le plus précis de la QED actuellement. Une autre expérience importante est la spectroscopie de l’hydrogène muonique, qui a permis de déterminer le rayon du proton. Des tests de la QED peuvent aussi être réalisés avec des ions lourds. Le rapport entre la masse du proton et la masse de l’électron peut aussi être calculé à partir de données spectroscopiques. Pour cette mesure, un système de choix est l’ion H2+. Un projet en cours vise à piéger cet ion dans un piège de Paul et à le refroidir sympathiquement. Notons enfin que des chercheurs français sont impliqués dans le projet international GBAR qui consiste à tester le principe d’équivalence sur l’antimatière.

La spectroscopie moléculaire peut aussi permettre d’observer des effets de violation de parité en effectuant la spectroscopie de molécules chirales.

Relier des grandeurs macroscopiques aux grandeurs microscopiques est un enjeu important pour se débarrasser des constantes non fondamentales comme la constante de Boltzmann kB. Une expérience vise à mesurer kB en mesurant l’élargissement Doppler de transitions optiques dans un gaz avec une précision de 1 ppm.

Le bruit de projection quantique est une limite fondamentale de tous les interféromètres atomiques. Des états intriqués à N corps, dont le spin total est comprimé, peuvent permettre d’améliorer la sensibilité. Des premières expériences, qui utilisent les interactions entre atomes pour introduire l’intrication, ont mis en évidence ce phénomène. Une autre stratégie pour réaliser ces états comprimés consiste à utiliser l’effet d’une mesure.

Au-delà des mesures de précisions, ces travaux métrologiques, qui se situent à la frontière de la physique fondamentale, contribuent assez systématiquement à des avancées dans la compréhension de la physique des systèmes étudiés.

D. Optique et information quantique

Le domaine de l’information quantique, exploré depuis une quarantaine d’années, est devenu une thématique de recherche mature dans les années 1990. Il consiste à traiter l’information à partir de protocoles basés sur les lois de la physique quantique. En effet, alors que la physique classique traite l’information par un « bit » (basé sur un codage binaire valant 0 ou 1), l’intrication et la superposition d’états quantiques permet en principe de coder exponentiellement plus d’information dans un « qubit » que dans un bit classique. De plus un état quantique inconnu ne peut être copié, et son observation introduit une perturbation irréversible, ce qui peut être exploité pour rendre la transmission de l’information plus sûre.

C’est pourquoi l’information quantique constitue un champ de recherche fondamentale très prometteur : un « ordinateur quantique », encore hypothétique, pourrait faire des calculs d’une grande complexité inaccessibles par un ordinateur classique en un temps raisonnable ; la cryptographie quantique propose d’implémenter des protocoles disposant d’une clé de sécurité réputée indéchiffrable.

Sur le plan théorique, l’amélioration des premiers algorithmes, proposés il y a une vingtaine d’années, doit reposer sur une meilleure compréhension des propriétés fondamentales de la théorie quantique. De nombreux efforts ont été consacrés ces dernières années à étudier la nature des corrélations quantiques, qui sont basées sur la propriété d’intrication, un des piliers sur lesquels repose la puissance de l’information quantique. Des progrès ont été réalisés dans la compréhension des propriétés de l’intrication multipartite ainsi que dans les méthodes potentiellement applicables pour sa détection. D’autres travaux théoriques ont cherché à mieux prendre en compte les effets (bruit quantique, décohérence) qui perturberaient irrémédiablement les opérations de calculs quantiques.

Sur le plan expérimental, la difficulté consiste à manipuler plusieurs systèmes quantiques intriqués pour réaliser les opérations d’adressage, de calcul (en combinant des portes quantiques) et de récupération de l’information. Même si de plus en plus de systèmes physiques élémentaires peuvent maintenant être contrôlés expérimentalement pour réaliser des opérations de calcul simples, le nombre maximum de qubits mis en jeu n’a que peu progressé ces dernières années, et reste cantonné dans l’ordre de grandeur de la quinzaine. D’autres approches sont actuellement étudiées, comme l’utilisation d’ensembles d’atomes que l’on peut contrôler collectivement, ou le couplage d’atomes artificiels (constitués de spins dans des matrices solides).

Les états quantiques de la lumière demeurent le support physique privilégié lorsque les opérations envisagées font appel à un nombre restreint de qubits. C’est notamment le cas de la cryptographie quantique, la distribution quantique de clé étant codée dans des photons. Ces dernières années ont vu le début d’applications commerciales. La distance sur laquelle on peut réaliser un tel réseau quantique a progressé, mais reste encore trop limitée (de l’ordre de la centaine de kilomètres) pour envisager un déploiement à grande échelle. Il faut des relais et des répéteurs quantiques capables de stocker et de restituer l’information, ce qui suppose de pouvoir contrôler très précisément l’interaction entre la lumière et la matière.

De nombreux efforts expérimentaux dans cette direction sont menés en optique quantique pour réaliser le plus fidèlement possible les briques élémentaires de l’information quantique photonique. De nombreuses sources de photons uniques ont été réalisées ainsi que de nouvelles sources de photons intriqués. Un effort important est consacré à la réalisation de mémoires quantiques, avec des atomes froids ou dans des cristaux dopés. L’enjeu le plus difficile est la réalisation de portes à deux qubits portés directement par deux photons. Des expériences sont développées pour obtenir des non-linéarités géantes au niveau du photon individuel par exemple en combinant le phénomène d’EIT et les fortes interactions dipolaires entre états de Rydberg. L’optique quantique multimode des oscillateurs paramétriques connaît elle aussi un développement important avec des applications dans le domaine de la transmission d’information par fibre à haut débit.

Bien qu’il soit aujourd’hui impossible de dire si un calculateur quantique réellement efficace sera un jour réalisable, le domaine de l’information quantique a joué un rôle de stimulateur dans le domaine de la compréhension des aspects les plus fondamentaux de la physique quantique comme la théorie de la mesure, la génération contrôlée d’états intriqués ou l’étude des limites du monde quantique dessinées par le phénomène de décohérence. Les expériences d’électrodynamique en cavité réalisées dans le groupe de Serge Haroche et distinguées par le prix Nobel 2012 s’inscrivent dans ce contexte.

Dans un domaine connexe déjà évoqué, le développement de détecteurs d’ondes de gravitation comme Virgo, dans lequel la France joue un rôle de premier plan, mérite également d’être souligné. C’est en effet aussi une des motivations du développement actuel important des expériences sur le couplage optomécanique entre petits résonateurs mécaniques et photons (cf. chap. III). Ces systèmes hybrides ont atteint le régime où la dynamique d’un oscillateur mécanique est dominée par son couplage à la lumière. Ils sont désormais aussi associés à une grande variété de nano-objets, comme des émetteurs de photons individuels ou des nuages d’atomes froids.

II. Molécules, biomolécules et agrégats

A. Introduction

D’importantes avancées méthodologiques expérimentales et théoriques ont permis au cours des années récentes de forts développements en physique moléculaire. Du point de vue expérimental, la capacité à produire de manière contrôlée des systèmes moléculaires de plus en plus complexes, le développement de techniques de détection de plus en plus performantes et l’avènement de sondes de la matière (particules, photons) permettant une exploration sur une large gamme d’énergie et d’échelles de temps donnant accès à des informations aussi bien structurales que dynamiques ont considérablement ouvert le domaine. En parallèle, le développement de moyens de calculs plus performants, celui de calculs quantiques plus complets, le développement de modélisations numériques ou de dynamiques moléculaires permettent aussi bien le traitement complet de collisions réactives que la description d’effets multiélectroniques ou au-delà de l’approximation de Born-Oppenheimer. Après un stade de validation sur des systèmes modèles, ces techniques donnent aujourd’hui accès à des systèmes moléculaires complexes, ouvrant ainsi l’interfaçage avec d’autres disciplines (physique de l’atmosphère, astrophysique, processus du vivant) et autorisant d’en lever certains verrous.

B. Spectroscopie de systèmes moléculaires

Le champ traditionnel de la spectroscopie est actuellement profondément revitalisé grâce à l’émergence de nouvelles sources dans toutes les régions du spectre. Ces dernières années ont été notamment marquées par l’apport du Synchrotron SOLEIL. Dans le domaine de l’infrarouge lointain et du rayonnement THz, la brillance exceptionnelle du rayonnement synchrotron donne la possibilité d’étudier plus précisément la spectroscopie de molécules (ions ou neutres) en connexion avec la physico-chimie du milieu interstellaire afin d’identifier ces espèces sans ambiguïté grâce à leur signature spectrale. Ces progrès se combinent à la réalisation en laboratoire de suies de carbone de tous les types, et à des études par spectroscopie laser de plus en plus quantitatives et complètes de la fragmentation des molécules et radicaux. Les études en infrarouge lointain font également le lien avec les expériences de spectroscopie dans le domaine micro-ondes.

Dans le domaine du visible et de l’infrarouge proche et moyen, le développement de peignes de fréquences dans les régions spectrales les plus propices pour la détection de molécules apporte une avancée considérable dans la sensibilité de la spectroscopie moléculaire d’absorption, ouvrant des perspectives inédites en cinétique chimique et en imagerie (cartographie de fonctions chimiques). Dans cette optique, la modélisation du spectre d’absorption de molécules d’intérêt atmosphérique et/ou planétologique, voire astrophysique, se développe. De fortes collaborations entre expérimentateurs (en particulier auprès de SOLEIL) et planétologues sont à l’origine du développement de la modélisation spécifique de l’atmosphère de Titan adapté aux molécules de haute symétrie. Les études concernant l’analyse et la modélisation globale du spectre du méthane, les calculs des coefficients d’élargissement collisionnel du méthane, la compréhension des bandes chaudes du spectre de SF6 se situent à l’état de l’art au niveau international. Les études actuelles s’orientent vers des conditions « extrêmes », comme l’étude du méthane à haute température (> 1000 K) pour les applications aux naines brunes et exoplanètes géantes. Les molécules d’intérêt climatique et environnemental sont aussi étudiées par spectroscopie optique de corrélation couplée à la télédétection active LIDAR afin d’élaborer de nouvelles méthodologies de mesure quantitative de gaz à l’état de traces dans l’atmosphère. En lien avec le réseau de distribution d’une référence de temps REFIMEVE+, ces nouvelles technologies autour des peignes de fréquences vont apporter une amélioration significative dans la qualité et la précision des données bénéfiques pour des missions satellitaires futures.

De nombreuses équipes étudient également la spectroscopie de systèmes d’intérêt biologique en phase gazeuse. Le développement des sources à ablation laser et jets supersoniques permet en effet la mise en phase gazeuse de molécules neutres de taille record et leur refroidissement, tandis que les sources de type électrospray permettent de produire des complexes non-covalents chargés. Les études spectroscopiques se sont orientées vers la caractérisation structurale de systèmes biomimétiques complexes, comme les peptides, les sucres, ou encore les porphyrines, fournissant des modèles de plus en plus réalistes des systèmes et des interactions en jeu dans la chimie du vivant. Le développement récent de pièges à ions cryogéniques ouvre le champ à des études sur les analogues protonés ou déprotonés de ces systèmes, reproduisant ainsi une large gamme de conditions biologiques avec une résolution spectroscopique inégalée. Plus généralement, la spectrométrie de masse et l’optique sont aujourd’hui étendues au-delà des approches traditionnelles pour comprendre la structure, le repliement et l’assemblage de protéines.

C. Dynamique des systèmes moléculaires

L’étude de la dynamique de petits systèmes moléculaires de taille finie a elle aussi connu une progression remarquable sur la période récente grâce aux évolutions significatives des lasers ultrarapides ou des techniques de détection (multi-coïncidences, corrélations vectorielles), domaines dans lesquels la communauté française se situe à l’état de l’art sur le plan international. Des approches multi-échelles sont désormais possibles grâce à l’accès aux phénomènes aux temps ultracourts (physique attoseconde) jusqu’aux temps longs (utilisation d’anneaux de stockage).

Dans le domaine des systèmes d’intérêt biologique, les études de (photo)-stabilité et de dynamique des états excités sont en fort développement : mécanismes de (photo)-fragmentation, mesures de durées de vie, caractérisation structurale des fragments, etc. Le développement de méthodes théoriques, en plein essor à la fois pour la description du paysage conformationnel de l’état fondamental et la dynamique des états excités, a largement contribué à l’approfondissement de ces différentes problématiques. Les molécules sont étudiées dans différents environnements : matrices cryogéniques ; réactions modèles comme le transfert de proton dans des molécules réactives ou des radicaux ; agrégats d’eau qui permettent de simuler les effets de solvatation et d’étudier la compétition des effets directs et indirects dans les dégâts d’irradiation ; ou encore nanogouttes d’hélium, aux caractéristiques particulières (notamment la superfluidité) qui constituent des « nano-laboratoires » uniques permettant d’étudier une grande variété de systèmes moléculaires à basse température. Un autre domaine en plein développement concerne l’étude de la dynamique des processus biologiques élémentaires au moyen de techniques variées de spectroscopie femtoseconde et de simulations de dynamique moléculaire, reposant sur la combinaison des compétences en optique des lasers ultrarapides et de l’expertise en ingénierie des protéines. Plusieurs études s’intéressent tout particulièrement aux changements de conformation de protéines qui jouent un rôle vital dans les processus biochimiques.

Les ions moléculaires multichargés constituent un système modèle permettant d’étudier la question fondamentale d’un système à N-corps en interaction coulombienne. Les transferts d’énergie et de charge inter- et intramoléculaires initiés par l’irradiation conduisent à une multitude de voies de relaxation en compétition (fission, fusion, évaporation, dissociation métastable), fournissant des tests sévères des calculs de chimie quantique. Ces études s’étendent désormais aux molécules complexes. De récentes études de collision entre des ions multichargés et des agrégats de PAH ou de biomolécules ont par ailleurs mis en évidence la possibilité de faire croître des systèmes moléculaires plutôt que de les dissocier, l’énergie déposée étant alors en partie convertie pour former des liaisons covalentes entre des espèces initialement liées par des liaisons hydrogène. Les mécanismes responsables de cette réactivité chimique restent à explorer mais la croissance de systèmes moléculaires et la production d’espèces prébiotiques pourraient ainsi être étudiées.

Le domaine des impulsions courtes XUV/X (femtosecondes et attosecondes), que ce soit au moyen d’installations « table-top » ou sur des lignes de lumière de type lasers à électrons libres (FEL) est en plein essor. S’agissant des X-FEL, la France a choisi de ne pas investir dans la construction d’un tel équipement, mais une communauté existe et développe des thématiques dans le cadre de collaborations internationales, ainsi que des expériences complémentaires installées sur rayonnement synchrotron. Ces sources permettent notamment l’étude en temps réel de mécanismes électroniques, mais également d’accéder au régime multiphotonique pour des photons très énergétiques. Nous assistons actuellement au développement d’une physique nouvelle liée à l’observation de la dynamique des charges (électrons ou trous) dans les molécules. Si les atomes et molécules simples sont jusqu’à présent les premiers sujets d’étude, la recherche française se situe au meilleur niveau international avec plusieurs expériences en cours sur des systèmes moléculaires plus complexes.

Les sources de rayonnement énergétique permettent notamment de produire directement des ions moléculaires multichargés, ce qui devrait apporter de nouvelles informations spectroscopiques importantes pour la physique des plasmas. Par ailleurs le développement de l’imagerie moléculaire par diffraction cohérente est une thématique en plein développement.

La dynamique résolue en temps, à l’échelle attoseconde, d’espèces isolées en phase gazeuse va bénéficier à court terme de l’avènement de techniques traditionnellement utilisées pour l’étude de propriétés statiques ou à des échelles de temps plus longues. C’est le cas des spectroscopies d’absorption transitoire, des méthodes de détection multi-dimensionnelles de particules chargées, du dichroïsme de photoélectrons, de la spectrométrie de masse. Ces expériences permettent déjà de réaliser un contrôle à l’échelle attoseconde de la dissociation et de l’ionisation de systèmes moléculaires de plus en plus complexes et également de mesurer directement le temps de photo-éjection d’un électron à l’échelle attoseconde, sonde extrêmement précise de la matière. Parallèlement à ces études dynamiques dites « pompe-sonde », la spectroscopie par génération d’harmoniques d’ordre élevé donne également accès aux mécanismes aux temps courts et a acquis en quelques années une maturité lui permettant d’aborder des problématiques de physico-chimie (chiralité, couplages non-adiabatiques etc.) tout en développant des techniques fondamentales telles que la reconstruction d’orbitales moléculaires. De ces nouvelles approches lasers naît ainsi une ère nouvelle en physicochimie et en physique moléculaire dans la mesure où on pourra utiliser les processus non Born-Oppenheimer, couplant mouvement électronique et nucléaire, pour contrôler une réaction chimique.

L’étude théorique de processus collisionnels d’intérêt astrophysique et atmosphérique est également en fort développement avec la possibilité de réaliser un traitement complet des collisions réactives moléculaires qui va de la détermination de la surface d’énergie potentielle électronique (calculs ab initio puis interpolation/extrapolation) aux calculs des sections efficaces (intégrales et différentielles) et des constantes de vitesse à l’aide d’un formalisme quantique dépendant du temps basé sur les paquets d’onde, ou indépendant du temps basé sur les coordonnées hypersphériques, ou encore en utilisant une méthode quasi-classique de trajectoires. Des méthodes de calculs quantiques et semi-classiques sont développées pour traiter les collisions réactives et inélastiques en phase gazeuse dans des milieux hors équilibre thermodynamique. Le cas des collisions neutre-neutre constitue un véritable défi sur le plan théorique. Un traitement précis état à état incluant les niveaux excités rotationnels est par exemple indispensable à l’interprétation des données cométaires. Le développement de méthodes adaptées aux systèmes de plus grande taille comme les chaînes carbonées ou les agrégats moléculaires constitue encore un défi, l’objectif étant d’aller progressivement vers des systèmes simulant les réactions sur la surface des grains de poussières.

Le refroidissement, le piégeage et le contrôle des molécules rovibrationellement froides connaissent enfin des progrès importants. L’obtention de températures extrêmement basses dans les gaz atomiques et moléculaires a stimulé un énorme progrès en physique fondamentale et appliquée au cours des vingt dernières années (cf. chapitre I). Dans le domaine des collisions réactives ultrafroides atome-molécule, les méthodes numériques développées ont abouti à la création de codes capables d’obtenir des sections efficaces réalistes pour les collisions du type atome-molécule alcaline. Des dynamiques quantiques des réactions moléculaires sont désormais possibles avec des études concernant la dynamique de petites molécules polyatomiques au-delà de l’approximation de Born-Oppenheimer. Ces études vont se poursuivre en particulier dans le cas des systèmes dissociatifs. L’un des objectifs à moyen terme de cette activité est de modéliser des systèmes tels que les trimères d’alcalins qui sont impliqués dans le domaine des collisions atomes-molécules ultrafroides.

D. La physique moléculaire et ses multiples interfaces

La modélisation de milieux réels complexes (milieu interstellaire ou atmosphères planétaires) nécessite la connaissance de données de physique atomique et moléculaire. Outre la phase gazeuse et les phénomènes physico-chimiques qui lui sont associés, les interfaces gaz/solides jouent un rôle primordial. Les expériences de chimie hétérogène caractérisent différentes étapes du processus réactionnel sur des surfaces par adsorption d’atomes. Les surfaces froides, simulent en laboratoire celle des grains de poussières interstellaires micrométriques. Une seconde catégorie d’expériences novatrices simule les phénomènes de désorption consécutifs à l’absorption du rayonnement UV-VUV sur des surfaces analogues de glaces interstellaires. La compréhension de la variabilité naturelle des populations d’état du spin nucléaire de molécules hydrogénées dans l’univers ou les rapports isotopiques de l’oxygène dans le système terrestre et solaire sont aussi des enjeux fondamentaux. Les systèmes carbonés (suies, agrégats de PAH) ainsi que les agrégats organiques deviennent des sujets majeurs d’études en physique moléculaire afin de mieux contraindre les modèles d’évolution climatique pour la planète Terre ainsi que les modèles de formation/évolution des systèmes planétaires.

Le développement de lasers en milieu microfluidique permet d’étudier les interactions biologiques. Parmi les exemples d’application, il est possible de citer le développement de biofilms bactériens par la combinaison d’approches de microscopie et de spectroscopie pour étudier les facteurs déterminant la force de l’adhésion bactérienne, la réalisation de substrats résistant à l’adhésion, les moyens biologiques de destruction des biofilms, ou encore l’internalisation de particules fonctionnalisées dans des cellules pour de multiples applications, comme l’observation optique de processus cellulaires, la vectorisation de médicaments, la sensibilisation à la radiothérapie. Les progrès en physique moléculaire couplés à des développements instrumentaux afin de repousser la limite de résolution très au-delà de la limite de diffraction, ouvrent la voie à la compréhension de systèmes biologiques réels notamment au niveau cellulaire, voire à des solutions thérapeutiques à l’échelle moléculaire.

L’interface entre la physique moléculaire et les nanosciences et le contrôle optique est également en plein essor. On peut choisir d’explorer diverses voies pour réaliser des « briques » fonctionnelles pour l’électronique moléculaire du futur (substrats hybrides associant molécules, nanostructures métalliques, dispositifs plasmoniques, nanostructures semi-conductrices, surfaces de graphène et silicène) ; trouver de nouvelles voies de réalisation et fonctionnalisation de monocouches moléculaires auto-assemblées ; optimiser l’exaltation de l’émission de lumière, exploiter les couplages plasmoniques dans des jonctions sub-nanométriques au sein d’architectures hybrides, réaliser l’excitation par la nanosource d’une molécule localisée en un endroit précis d’une structure plasmonique, maîtriser le couplage entre plasmons et d’autres objets : molécules et excitons.

III. Lasers, optique ultrarapide, dynamique non-linéaire en optique ; nano-optique, plasmonique, biophotonique, imagerie

A. Sources lasers et optique ultrarapide

Durant ces dernières années, des évolutions rapides ont permis de réaliser des sources lasers toujours plus compactes, fiables et faciles d’utilisation, à moindre coût. Les avancées des lasers visent à augmenter la gamme spectrale accessible (qui va maintenant du THz au VUV) via des sources cohérentes continues ou impulsionnelles, voire ultracourtes, tout en réduisant leur bruit (de phase ou d’intensité).

De nombreuses études spectroscopiques sont consacrées à l’optimisation de nouveaux matériaux lasers, notamment des ions de terres rares et des métaux de transition dans divers types de matrices (cristaux, semi-conducteurs, verres ou fibres optiques conventionnelles ou microstructurées). De nouveaux types de cristaux optiques non-linéaires et l’ingénierie de l’accord de phase ont permis notamment d’étendre les gammes spectrales accessibles.

Le développement et l’étude de sources THz, domaine spectral jusqu’ici peu accessible et utilisé notamment en imagerie connaissent un intérêt croissant : ces sources de plus en plus performantes sont des lasers à cascade quantique, des dispositifs optoélectroniques basés sur des transitions inter-sous-bandes, ou des dispositifs non-linéaires.

De nouvelles architectures laser innovantes sont apparues : lasers organiques accordables à capsules jetables, lasers pompés par LED à haute efficacité énergétique, VCSEL compacts, lasers bi-fréquences ultrastables permettant de transporter des informations codées sur porteuse optique ou même des lasers aléatoires reposant sur l’utilisation de milieux très désordonnés mais dont les modes spatiaux sont néanmoins finement contrôlés.

Les actions de R&D laser s’orientent également vers le développement de sources délivrant des impulsions de l’ordre du cycle optique. La conception de techniques de façonnage temporel et d’amplification en régime ultracourt est donc au cœur des préoccupations de la communauté. Elle s’accompagne d’une recherche de nouveaux matériaux amplificateurs afin d’étendre la gamme de longueurs d’onde de l’UV à l’IR, notamment pour la génération d’impulsions attosecondes uniques et d’harmoniques d’ordre très élevé. Atteindre de telles durées sub-fs pose naturellement la question de la métrologie des impulsions produites ; des efforts importants pour développer des outils de caractérisation innovants sont donc fournis.

Enfin, la phase de porteuse qui fixe l’évolution du champ électrique sous l’enveloppe de l’impulsion, est devenue un paramètre contrôlable. Il est ainsi possible aujourd’hui de réaliser des peignes de fréquences très robustes pour des mesures spectroscopiques rapides et de haute précision.

Les impulsions ultracourtes sont aussi propices aux non-linéarités et des sources cohérentes secondaires ultracourtes sont développées par interactions non linéaires dans une gamme de fréquence très large (des sources THz au domaine XUV, cf. chap. IV).

B. Dynamiques non linéaires complexes en optique

L’optique non linéaire reste un terrain fertile pour observer des phénomènes dynamiques complexes intéressant de nombreuses disciplines, avec des échelles de temps et des rapports signal sur bruit très favorables. L’étude de la propagation de rayonnement dans une fibre optique, où des effets très non linéaires peuvent être obtenus, engendrant par exemple des supercontinuums, a mené à des parallèles fructueux avec l’hydrodynamique.

C’est ainsi qu’ont été observées des « ondes scélérates optiques », analogues des vagues océaniques géantes hautes de quelques dizaines de mètres, dont l’origine demeure mystérieuse. Au delà de l’observation et de la caractérisation d’évènements extrêmes, des correspondances précises peuvent être établies grâce à l’équation de Schrödinger non linéaire (NLSE) qui régit les deux problèmes, ou à ses généralisations. Le soliton de Peregrine, solution de NLSE parfaitement localisée dans le temps et dans l’espace, et donc prototype idéal d’onde scélérate, a ainsi été observé pour la première fois en optique en 2010, puis seulement ensuite en hydrodynamique, trente ans après sa prédiction théorique. Dans ces études, l’optique fournit un environnement contrôlé, où différents termes non linéaires de l’équation de propagation peuvent être modulés, permettant de préciser leur rôle.

Solitons, ondes scélérates, et plus généralement structures localisées temporelles ou spatiales, sont également activement étudiés dans des systèmes fortement dissipatifs : lasers à blocage de modes ou à semi-conducteurs, ou encore valves à cristaux liquides. Des contextes et des mécanismes d’apparition très différents ont été mis en évidence, allant de l’interaction de trains de solitons chaotiques à des régimes de chaos déterministe dans des lasers monomodes.

D’autres structures propagatives remarquables, les faisceaux non diffractants accélérés, solutions des équations de Maxwell qui se propagent suivant des lignes courbes sans diffracter, suscitent également un grand intérêt.

L’optique non linéaire incohérente, qui étudie les phénomènes d’auto-organisation dans un rayonnement à spectre large se propageant dans une fibre, est un domaine en plein essor. Il s’agit là d’un terrain de choix pour développer des approches statistiques de la turbulence. Un problème central est celui de la thermalisation vers un état d’équilibre, avec des phénomènes remarquables tels que la condensation classique d’ondes. En présence d’interactions non locales, spatialement ou temporellement, qui constituent un obstacle à la thermalisation, c’est la mécanique statistique complexe des systèmes à longue portée qui peut être explorée, avec des analogies en astrophysique.

Enfin, l’attraction de polarisation, phénomène non linéaire permettant de caler la polarisation d’un rayonnement signal sur celle d’un rayonnement de pompe, ouvre la voie à un contrôle tout optique de la polarisation.

C. Nano-optique

La nano-optique bénéficie des avancées dans les nanomatériaux et la nanostructuration de surfaces. Sa démarche est de plus en plus multidisciplinaire, tant sur les concepts que les applications visées, dont certaines tendent à marier optique et électronique, mécanique, etc., dans un contexte de fortes miniaturisation et intégration. Notons que la communauté française dispose ici d’atouts très solides, avec de nombreux groupes de physiciens ou chimistes à très grande visibilité internationale.

1. Nanomatériaux et nanosources de photons uniques

Un axe très fécond en nano-optique est l’étude de nano-objets optiques, isolés ou associés en nanostructures simples, avec l’objectif de comprendre et moduler leurs propriétés et l’influence de l’environnement, de les inclure au cœur de dispositifs optoélectroniques, ou de les utiliser comme marqueurs ou sources locales de lumière. Un des objectifs est de réaliser dans le domaine de la physique du solide des dispositifs pour l’optique quantique, complémentaires à ceux de la physique atomique.

Nombre d’études se focalisent sur des nano-émetteurs couplés à des nanostructures afin de contrôler leur émission. À l’échelle individuelle, un but est de réaliser des sources de photons uniques. Des progrès spectaculaires ont été réalisés avec des boîtes quantiques semi-conductrices grâce aux techniques d’épitaxie et de lithographie qui permettent de contrôler l’environnement photonique de l’émetteur et d’obtenir des sources brillantes dont les températures de fonctionnement approchent l’ambiante. La technique de lithographie in situ permet même de sélectionner « le » bon émetteur avant d’élaborer le composant photonique autour.

La chimie colloïdale occupe une place de choix avec l’extrême diversité en taille et nature des matériaux qu’elle offre : boîtes quantiques semi-conductrices cœur-coquille non clignotantes ; nanoprismes d’or cristallins ; chapelets de nanobilles d’or, nanoparticules d’isolants dopés, nano-KTP, etc. Les sondes hybrides marient par exemple un métal et un semi-conducteur avec la perspective de combiner les effets d’exaltation du champ dans le métal à ceux du confinement quantique dans le semi-conducteur.

Les nanodiamants fluorescents contenant au moins un centre coloré du type NV sont désormais disponibles avec des tailles réduites à quelques nanomètres. Leur grande photostabilité et la possibilité de préparer et lire optiquement leur spin ouvrent un vaste champ d’études : magnétométrie ultrasensible, marquage biologique, registres quantiques, plasmonique ou optomécanique.

2. Photonique en milieu diélectrique

Un enjeu important est de confiner le champ dans des cavités de structures photoniques contenant des nano-émetteurs afin de maximiser leur interaction. Les nanostructures diélectriques (cristaux photoniques, piliers, nanosphères) présentent l’avantage d’être peu absorbantes et de permettre un confinement important de la lumière. Des géométries innovantes de cristaux photoniques exploitant le ralentissement de la vitesse de groupe à proximité des bords de bande photonique, ou l’ingénierie du désordre ont permis d’augmenter le confinement. La juxtaposition de deux structures photoniques sur un même cristal, a permis tout en atteignant des facteurs de qualité de 106, de rayonner efficacement de manière directive et perpendiculairement à la surface. L’extraction de la lumière de ces structures très confinantes reste un défi important. Des géométries de piliers en « trompettes » permettent d’obtenir un couplage de 95 % dans un mode guidé en adaptant l’impédance de la structure photonique au milieu extérieur.

Le fort confinement et l’ingénierie de l’extraction des photons offerts par les structures photoniques ont motivé le développement de sources lasers intégrables, la technologie planaire des cristaux photoniques permettant le guidage de la lumière et ainsi la réalisation de circuits optiques. Enfin le fort confinement obtenu dans les cristaux photoniques permet le développement de filtres optiques intégrables et très sélectifs en longueur d’onde.

Des développements sont aussi conduits dans le domaine des structures photoniques colloïdales obtenues par auto assemblage de billes diélectriques. Ces structures à 2D (monocouche de billes ordonnées) et à 3D (opales) constituent une alternative aux cristaux photoniques planaires lithographiés et peuvent être obtenues sur des grandes dimensions sans nécessiter des moyens technologiques lourds. Ces dernières années ont vu le développement de techniques permettant de créer des défauts contrôlés dans les opales pour y confiner la lumière, l’utilisation de structures opaliques pour obtenir des capteurs chimiques, ou pour l’optoélectronique organique.

3. Plasmonique et métamatériaux

Très active depuis la fin des années 90, la plasmonique est devenue foisonnante dans la période récente grâce à la capacité des plasmons – modes collectifs photons-électrons en surface d’un métal – de contrôler et guider la lumière sur des dimensions très réduites.

Ainsi, l’ingénierie de profils de Fano est porteuse d’applications dans la fabrication de nano-antennes directives et de détecteurs ultrasensibles. En plasmonique quantique, au sens de l’optique quantique, les études sont à la fois fondamentales et sources d’applications, par exemple dans le traitement quantique de l’information à 2D. La plasmonique non-linéaire, abordée en particulier par le couplage cohérent d’impulsions laser ultracourtes à des interfaces plasmoniques, ouvre de nouvelles perspectives de manipulation de la lumière, comme la conversion de longueurs d’onde ou la génération d’harmoniques élevées. Combinée à la plasmonique quantique, elle ouvre la voie à de nouveaux nanocomposants photoniques. On anticipe même à terme une intrication purement plasmonique, absente dans la lumière excitatrice.

L’assemblage à 2D ou 3D de méta-atomes ou métamolécules (des nano-antennes plasmoniques de topologie optimisée) conduit à la formation de métasurfaces ou métamatériaux aux propriétés optiques inhabituelles. L’optique de transformation permet de faire varier la topologie des méta-atomes de façon continue dans les trois directions de l’espace pour aboutir à des phénomènes optiques spectaculaires (ex. : cape d’invisibilité). Un des enjeux est d’élaborer des « méta-matériaux » viables dans le visible. La combinaison de métamatériaux à indice négatif avec des milieux actifs permet de réduire les pertes ohmiques du métal. Ainsi, des composants plasmoniques amplificateurs de lumière, comme des nanolasers ou des « spasers », ont-ils été inventés. Les progrès en plasmonique contribuent à une circuiterie plasmonique performante comportant à la fois des éléments passifs et actifs. Se pose alors la question de l’interfaçage de cette circuiterie avec d’autres plateformes technologiques, photonique ou électronique, apportant à ces dernières une plus-value en termes de compacité, bandes passantes ou amplification des signaux.

Apparue ces dernières années, la possibilité d’exciter électriquement des plasmons sous pointe STM ouvre la voie à une plasmonique réellement nanométrique qui devrait être utile pour l’étude de la propagation d’information aux échelles ultimes. 10 nm est la dimension actuelle permettant l’instauration de modes plasmoniques capables de se propager. Le devenir de ces modes dans des guides de section inférieure est une question ouverte avec, comme corollaire, celle de l’intégration multi-échelles de ces systèmes ultimes.

Dans le contexte des forces lumière-matière, le contrôle de l’excitation des plasmons localisés a conduit à des nouvelles pinces optiques, dites « pinces plasmoniques », alors que les plasmons délocalisés peuvent être façonnés pour le transport et le tri de particules en environnement micro-fluidique.

Si certains aspects de la plasmonique sont handicapés par les pertes ohmiques dans le métal, d’autres en tirent profit. Ainsi la thermo-plasmonique permet de stimuler à distance des nano-sources de chaleur, avec des applications déjà validées en oncologie.

La plasmonique tend actuellement à diversifier ses matériaux de base. Longtemps limitée aux métaux nobles, elle utilise désormais l’aluminium, le graphène pour un couplage efficace entre nanoélectronique et nano-optique, ou encore des semi-conducteurs pour une plasmonique rapide, accordable dans le visible et moyen IR, et intégrable.

4. Nano-optomécanique

La nano-optomécanique se développe à un rythme accéléré, en particulier dans sa version « hybride » qui couple des nano-résonateurs mécaniques à un émetteur quantique pour créer des états non classiques du mouvement. Des progrès spectaculaires ont été réalisés : refroidissement laser ; lecture optique des déplacements ; implémentation de nouveaux nano-oscillateurs mécaniques (nanofils, membrane à cristal photonique, cavités miniatures, résonateurs sur puce) ; définition de protocoles de manipulation de qubits.

D. Imagerie optique – biophotonique

Les développements de la nanophotonique et de la plasmonique ont impliqué le développement de sondes locales permettant d’imager les champs confinés à la surface des nanostructures. En particulier, la microscopie optique de champ proche (SNOM) permet d’obtenir une résolution très sub-longueur d’onde et par exemple d’imager dans les domaines du visible, de l’infrarouge, mais aussi du THz, des plasmons de surface et leur propagation. L’imagerie SNOM du champ émis par des nano-émetteurs placés à proximité de films métalliques fractals aléatoires a ainsi permis de mesurer la densité locale d’états, ainsi que la localisation spatiale de modes plasmoniques.

La biophotonique a vu se développer de nouveaux concepts et techniques pour l’imagerie des systèmes biologiques. La communauté française s’est fédérée essentiellement autour du club « Photonique et Sciences du Vivant » de la SFO et du GDR « Microscopie Fonctionnelle du Vivant » et a démontré des avancées du meilleur niveau international dans les domaines suivants.

Tout d’abord, l’imagerie de super-résolution a permis de dépasser la résolution optique pour l’imagerie cellulaire, soit par des techniques de photoactivation séquentielle de chromophores uniques pour en permettre la localisation précise (PALM, STORM…), soit par déplétion de l’émission de fluorescence hors d’une zone très limitée du volume focal (STED), soit en s’appuyant sur un façonnage spatial du faisceau excitateur ou du faisceau détecté pour séparer les différentes composantes spatiales de l’image (Hi-Lo, illumination structurée, imagerie supercritique). Les développements récents visent à améliorer encore les résolutions, les vitesses d’acquisitions et la profondeur sondée pour obtenir une imagerie super-résolue de la dynamique de processus cellulaires 3D.

En ce qui concerne l’imagerie des tissus, les enjeux sont d’obtenir une imagerie 3D multimodale à haut débit le plus profondément possible. Une augmentation de la profondeur d’imagerie ainsi qu’un meilleur contrôle de la focalisation sur des objets complexes ont été permis par un façonnage spatial des faisceaux d’excitation en microscopie multiphotonique (optique adaptative) ou en holographie numérique. De façon complémentaire, l’optique des milieux diffusants et désordonnés repose sur le fait que la diffusion de la lumière dans un milieu complexe est avant tout un phénomène déterministe et donc potentiellement réversible. La mesure de la matrice de transmission d’un milieu diffusant permet d’avoir une relation linéaire entre le champ incident et le champ transmis, et ainsi de transmettre une image à travers ce milieu ou de focaliser, spatialement ou temporellement, à l’intérieur du milieu, jusqu’à des profondeurs dépassant le mm. Par ailleurs, la focalisation multipoints, l’imagerie plein-champ par focalisation temporelle et surtout l’imagerie par nappe de lumière ont permis d’améliorer la rapidité d’acquisition des images. Enfin, la diversité et la richesse des processus optiques non-linéaires (génération d’harmoniques, contrastes Raman, aspects polarimétriques) ont permis d’obtenir une imagerie multimodale spécifique de certaines structures biologiques. Ces aspects polarimétriques ont aussi été exploités en ellipsométrie de Müller pour sonder des tissus précancéreux.

Enfin, les aspects multimodaux ou multi-échelles se sont développés, par exemple en combinant la spécificité de l’imagerie de fluorescence et la rapidité de la tomographie cohérente optique (OCT), ou en corrélant des images optiques à des mesures à d’autres échelles spatiales (sondes locales par exemple). Les sondes développées pour l’imagerie optique se veulent de même multifonctionnelles (oxydes de terres rares sensibles au degré d’oxydation, nanotubes de carbone sensibles à la viscosité par exemple). Enfin, l’ensemble de ces avancées fait aussi appel à des approches quantitatives basées sur des concepts physiques avancés, par exemple l’utilisation des inférences bayésiennes.

IV. Plasmas chauds

A. De l’utilisation des plasmas pour la production d’énergie

1. Filière magnétique

Le projet international ITER, visant à démontrer le potentiel de la fusion par confinement magnétique comme source alternative d’énergie bas carbone, suscite un éventail de recherches très diverses, posant souvent des questions fondamentales (cf. l’effet Landau, objet de la médaille Fields de C. Villani). Ainsi, la turbulence ou la dynamique non-linéaire, les processus atomiques, la physique des surfaces sont au cœur des deux premières missions identifiées dans la feuille de route européenne : 1) optimiser les régimes d’opération en minimisant les pertes ; 2) optimiser les configurations du plasma et les matériaux de paroi pour supporter les forts flux de chaleur et de particules produits dans le plasma en combustion. La Fédération de Recherche nationale (CNRS, CEA, INRIA, plus de vingt Universités), coordonne en France des recherches multidisciplinaires. En physique, elles se déroulent selon une chaîne essentielle pour pouvoir valider à terme les simulations préparatoires d’une décharge complète d’ITER : établissement des modèles théoriques, mathématiques associées et développement de schémas numériques performants pour les simulations directes, confrontation à l’expérience, notamment sur les grands instruments que sont les tokamaks.

Le développement du code gyrocinétique de simulation directe GYSELA a permis notamment de mettre en évidence des phénomènes de transport par avalanche et de formation de structures cohérentes (flux zonaux), qui jouent un rôle essentiel dans la régulation du transport turbulent, ou ses aspects non-locaux. Des modèles de complexité variable accompagnent ces développements. Différentes techniques instrumentales, développées et implémentées par les équipes françaises sur les machines européennes permettent de valider les résultats. Un enjeu majeur de ces développements est la compréhension de la dynamique spontanée des barrières de transport et la bifurcation vers un régime de meilleur confinement.

Dans ITER, le chauffage du plasma sera essentiellement assuré par les particules α énergétiques issues des réactions de fusion, à la différence des tokamaks actuels : ces nouveaux régimes suscitent de nouveaux développements de codes couplant MHD et description particulaire.

Une physique essentielle pour ITER se joue également à l’interface entre le plasma et la paroi en regard : dans cette zone où les fluctuations peuvent être de grande amplitude, un enjeu est d’étaler le flux thermique et de particules pour garantir la compatibilité avec les matériaux. L’essentiel de l’interaction est localisé au niveau d’un élément appelé divertor, dont la fabrication est un enjeu pour ITER : la mutation vers le tungstène a renouvelé les approches pluridisciplinaires associant les matériaux, les processus élémentaires à la surface, l’interaction avec le plasma, la physique atomique. La modélisation associée est complexe, multi-échelles, et doit prendre en compte les échanges de particules chargées et neutres, dans un environnement dominé par la turbulence. La nouvelle installation française (WEST, Cadarache) sera un dispositif essentiel pour la validation du fonctionnement du divertor d’ITER.

Des configurations magnétiques alternatives (stellarator), également identifiées dans la feuille de route européenne, font aussi l’objet d’un projet d’installation expérimentale de moyenne échelle.

2. Filière inertielle

Après une période de doute face aux premiers résultats décevants de la campagne NIC sur l’installation NIF aux États-Unis, et ce malgré des réalisations technologiques laser-cibles-diagnostics impressionnantes, une période plus réaliste et plus fructueuse sur le plan de la recherche académique s’est ouverte en 2013, avec de réelles avancées dans la compréhension des mécanismes physiques qui préviennent l’obtention d’un gain significatif en attaque directe (instabilités paramétriques, absorption de l’énergie laser, conversion X, instabilités hydrodynamiques, etc.) et des résultats qui ont démontré un chauffage significatif du combustible par les particules α, et donc une amorce du processus d’allumage.

L’attaque directe connaît, en parallèle, un regain d’intérêt dû aux nouveaux schémas d’allumage rapide ou par choc. Ils reposent tous deux sur une séparation des phases de compression et d’allumage avec la nécessité d’un dépôt complémentaire d’énergie, dû soit à des particules ultrarapides soit à un choc fort, sur un temps très bref. Si le premier schéma nécessite encore aujourd’hui la levée de nombreux verrous, le second paraît plus réaliste et mobilise plusieurs équipes en France, en Europe et aux États-Unis afin de prouver sa faisabilité sur les installations NIF et LMJ-PETAL.

La communauté académique européenne est depuis des années fédérée par le biais d’activités de veille EURATOM et autour du projet HiPER, qui vise à démontrer que la fusion inertielle peut être, à très long terme, une source d’énergie viable sur le plan économique et environnemental, en validant les différents composants d’un futur réacteur. Ce but ambitieux se traduit aujourd’hui par le lancement de programmes scientifiques et technologiques dédiés, autour d’une roadmap coordonnée à l’échelle européenne. La décision de construction d’HiPER devrait être prise à la fin des années 2020.

B. Étudier des états extrêmes de la matière : de la matière condensée à la matière à haute densité d’énergie

À l’échelle nationale, la communauté est coordonnée au sein de l’ILP. Structuré en deux pôles, « Haute Densité d’Énergie » (HDE) et « Ultra-Haute Intensité » (UHI), l’ILP regroupe l’ensemble des laboratoires et des chercheurs du domaine laser-plasma.

La fusion inertielle évoquée précédemment n’est que l’un des sujets traités au sein du pôle HDE. L’astrophysique et la planétologie de laboratoire sont également largement abordées. En effet, les lasers de forte énergie permettent d’atteindre des conditions telles que certains objets extra-terrestres peuvent être étudiés, moyennant des lois d’échelles appropriées. Des résultats marquants ont ainsi été obtenus sur les chocs d’accrétion et les chocs radiatifs, la formation de champs magnétiques proto-galactiques ou la structure des exo-planètes, grâce notamment à l’implication croissante de physiciens non plasmiciens. Des thèmes tels que la reconnexion magnétique sont en cours d’étude. Ces grands sujets s’accompagnent d’études de physique de portée plus générale pour améliorer la compréhension des mécanismes microscopiques ou pour acquérir des données fiables. Le couplage récent laser-champ magnétique pulsé va de plus ouvrir tout un pan de nouvelles recherches sur les plasmas magnétisés. Enfin, des progrès importants sont attendus dans les années à venir, l’installation LMJ-PETAL permettant d’obtenir des conditions de plasma encore hors de portée.

Les X-FEL ont, quant à eux, ouvert un nouveau champ d’investigation HDE et le couplage prévu de ces sources avec des lasers énergétiques devrait être une des évolutions marquantes des prochaines années. En effet, le rayonnement X délivré, bref et intense, peut soit produire des plasmas dans des conditions totalement nouvelles soit sonder un milieu comprimé par laser ; on parle dans les deux cas de matière dense et tiède, matière qui se trouve être à la fois ionisée et corrélée, voire quantique, et qui est aujourd’hui très mal connue.

Le pôle UHI de l’ILP s’intéresse quant à lui aux plasmas créés par interaction entre la matière et un laser de haute intensité (au-delà de 1015 W/cm2) et de très courte durée (fs). Ces derniers sont de plus en plus répandus dans les laboratoires, avec des énergies variant de quelques mJ à quelques dizaines de Joules. Leur puissance permet d’aborder notamment l’étude de mécanismes ou d’états de la matière à hydrodynamique figée ou exotique. En effet, à très haute intensité (au-delà de 1023 W/cm2), les champs extrêmes qui se développent au sein des plasmas relativistes devraient autoriser l’observation d’effets d’électrodynamique quantique mal connus (production par effet Breit-Wheeler de paires électron-positron…).

C. Produire des sources secondaires de particules et de rayonnement pour des applications aux interfaces

L’interaction laser-matière à haute intensité permet également de générer des sources secondaires de particules aux caractéristiques uniques (brièveté, brillance, etc.) qu’il s’agisse d’électrons, d’ions ou de photons. Au-delà de l’énergie maximum de ces particules, les recherches visent à améliorer la qualité des faisceaux obtenus (émittance, dispersion en énergie, accordabilité, stabilité, fiabilité, etc.) et à promouvoir des applications interdisciplinaires.

Après les premières démonstrations d’accélération d’électrons au GeV aux États-Unis, la quête de l’énergie « ultime » (la dizaine voire la centaine de GeV) se poursuit avec notamment des concepts de guidage et d’accélération multi-étages tout-optique, tels que ceux développés dans le cadre du consortium CILEX. Elle s’appuie sur une connaissance approfondie des mécanismes d’interaction et d’accélération laser-plasma et sur une caractérisation de plus en plus fine des faisceaux d’électrons produits. Elle s’accompagne d’importants efforts pour rendre ces derniers stables, quasi-mono-énergétiques et ajustables en énergie. Porté par la prochaine mise à disposition de la communauté d’installations laser multi-PW dédiées, le domaine est en plein essor.

Les faisceaux d’électrons accélérés par laser permettent de produire des sources de rayonnement X, intenses et ultrabrèves ; deux d’entre elles ont été démontrées ces dernières années et permettent de couvrir une gamme en énergie allant de quelques keV à quelques centaines de keV, pour des durées de l’ordre de celles des systèmes laser utilisés : le rayonnement bêtatron ou le rayonnement de diffusion Compton. Bien que d’importants efforts restent à fournir, la communauté des accélérateurs est aujourd’hui intéressée par cette recherche, notamment pour le développement de la 5e génération de lasers à électrons libres.

Les lasers XUV ont été au milieu des années 80 les pionniers des sources secondaires. Ils ont par la suite joué un rôle important dans les progrès des techniques associées : miroirs multicouches XUV, caméras CCD, etc. Trente ans plus tard, ils conservent des spécificités importantes, notamment un nombre de photons cohérents par impulsion très élevé dans la gamme ∼ 7-50 nm. L’injection dans le milieu à gain d’une harmonique laser a ouvert une nouvelle voie de recherche, vers des durées sub-ps, voire fs, ou la cohérence complète. En parallèle, l’évolution des systèmes lasers permet d’espérer dans les prochaines années la démonstration de nouveaux schémas d’inversion de population qui permettraient d’atteindre des longueurs d’ondes laser de l’ordre du nm. L’intensité des lasers X pourrait alors approcher, voire égaler, celle des X-FEL, mais avec une installation beaucoup plus compacte, moins chère, et plus accessible.

Les sources basées sur la génération d’harmoniques d’ordre élevé dans les gaz ou sur cibles solides ont quant à elles des caractéristiques particulièrement attractives, notamment leur synchronisation naturelle avec une impulsion IR, pour des expériences pompe-sonde, leur cohérence spatiale, leur directivité et leur durée, avec la possibilité d’obtenir des impulsions attosecondes isolées. L’observation du signal harmonique permet de plus d’auto-sonder la structure du milieu émetteur (atomes, molécules ou plasmas). La résolution spatiale de cette imagerie est alors de quelques Å et sa résolution temporelle attoseconde.

En ce qui concerne l’accélération laser d’ions, de quelques dizaines de MeV aujourd’hui pour les protons, l’objectif sera d’atteindre le GeV en utilisant au mieux les améliorations des systèmes laser et les nouveaux mécanismes mis en jeu aux très fortes intensités. Des techniques de manipulation sont développées en parallèle.

Le champ des applications des sources secondaires est très vaste, de la physique des plasmas à la physique du solide, la physique nucléaire, l’astrophysique et les sciences du vivant. Ainsi, utilisés initialement pour la radiographie et l’interférométrie résolues en temps en physique des plasmas puis pour l’inspection non destructive de la matière dense, les faisceaux d’ions et de rayonnement X permettent aujourd’hui de chauffer isochoriquement un solide et produire un milieu dense et tiède, à l’interface plasma – matière condensée, non simulable par les outils numériques actuels. Si la détermination expérimentale du pouvoir d’arrêt dans un plasma d’un faisceau d’ions légers accélérés par laser constitue une avancée en physique nucléaire, les expériences envisagées en particulier sur ELI-NP en Roumanie avec un couplage laser-faisceau γ devraient ouvrir un nouveau champ de recherches autour de la physique du vide. L’étude de phénomènes ultrarapides par diffraction d’électrons est également un axe de recherche en développement à l’interface avec la physique du solide. Enfin, l’intérêt des sources secondaires dans le domaine médical, pour l’imagerie à haute résolution, la radiothérapie, la production d’isotopes et l’hadronthérapie, a pu être montré. Leurs limitations actuelles devraient pouvoir être levées dans les années à venir avec le développement d’une nouvelle génération de systèmes laser.

D. Des codes de simulation multi-échelles performants pour la physique des plasmas

La simulation numérique joue un rôle essentiel pour les études mentionnées ci-dessus et un effort très important est fait pour développer des outils performants. Le caractère multi-échelles des mécanismes mis en jeu en justifie la variété. Si les codes de dynamique moléculaire, de physique atomique ou PIC traitent des aspects les plus microscopiques ou donnent accès à certaines données de base mesurables, les codes (magnéto)-hydrodynamiques radiatifs, gyro-cinétiques ou PIC hybrides autorisent une comparaison directe aux observations macroscopiques. Le parc de calculateurs à la disposition de la communauté, du cluster aux supercalculateurs pétaflops de GENCI ou de PRACE, ainsi que l’existence de structures accompagnatrices, ont permis aux outils d’évoluer et d’atteindre un très bon degré de maturité. Il est aujourd’hui possible de réaliser des simulations réalistes, tridimensionnelles et sur des échelles en temps et en espace pertinentes. La poursuite de telles études numériques ne pourra toutefois être envisagée que si la capacité du parc et des outils de développement continue à augmenter dans les années à venir afin d’inclure des mécanismes jusqu’alors négligés.

E. Des recherches et développements laser innovants pour des installations de classe internationale

Depuis plusieurs années, une course à la puissance crête et aux intensités extrêmes s’est engagée, lancée en particulier par les études sur l’accélération laser de particules et leurs applications. Des lasers, basés sur une technologie titane :saphir, fournissant des puissances jusqu’au PW sont aujourd’hui accessibles commercialement. Il s’agit maintenir d’atteindre la dizaine de PW, voire au-delà. Dans ce contexte, l’installation APOLLON sur le Plateau de Saclay est l’un des projets les plus ambitieux (avec les projets ELI) avec l’objectif de délivrer sur cible des impulsions de 300 J en 30 fs. Il témoigne du très haut niveau atteint par la recherche académique française qui peut aujourd’hui générer de fortes retombées économiques, grâce notamment aux partenariats tissés avec les industriels français, leaders du marché mondial. Afin de tirer bénéfice des intensités extrêmes, il convient de maintenir un très haut contraste sur cible. Ceci nécessite la mise en place de dispositifs de nettoyage d’impulsions que les équipes françaises, pionnières dans le domaine, continuent à améliorer et à valoriser.

L’augmentation de la cadence des sources ultracourtes et des lasers de forte énergie et/ou de forte puissance constitue un autre défi à relever. Il répond aussi bien à des problématiques économiques qu’à des problématiques de recherche académique, notamment pour les applications des sources secondaires de particules et de rayonnement ou en optique ultrarapide. Il s’agit en particulier de savoir gérer efficacement les problèmes thermiques qui accompagnent une augmentation de la puissance moyenne. Les recherches portent actuellement sur des systèmes laser pompés par diodes utilisant des matériaux dopés à l’ytterbium ou sur l’utilisation de fibres cristallines pour les très hautes cadences et de cristaux ou de céramiques pour les fortes énergies. L’intégration d’architectures et techniques innovantes devrait également conduire dans les années à venir à des avancées importantes. On peut noter aussi l’émergence des techniques de combinaison cohérente d’impulsions qui, appliquées aux lasers fibrés, pourraient constituer une rupture technologique fondamentale extrêmement prometteuse.

Des activités de R&D visant à rechercher et tester des matériaux supportant des flux élevés de rayonnement et de particules ionisantes, ou à mettre au point des techniques d’injection et d’alignement de cibles complexes doivent être poursuivies en parallèle, que cela soit dans le cadre d’études HDE ou dans le cadre d’études UHI.

F. Un continuum d’installations françaises au service de la communauté académique

Les programmes expérimentaux plasma-laser sont dans la plupart des cas développés sur des installations à taille « humaine », implantées dans les laboratoires, avant d’être portés sur les très grandes infrastructures de recherche, nationales ou européennes. En effet, si ces dernières permettent d’avoir accès à des paramètres d’interaction exceptionnels, leur accessibilité est limitée et des installations locales, plus souples en termes d’utilisation et de planification, sont indispensables pour la conduite d’expériences préparatoires, voire exploratoires, pour la formation d’une nouvelle génération de chercheurs et d’ingénieurs, et pour une conception innovante de diagnostics. La durabilité de l’accès par la communauté académique à ces installations de proximité, est un réel enjeu pour les années à venir.

Une analyse de différents scénarios d’évolution de ce parc dans le domaine HDE, et de leur impact sur la communauté laser-plasma, a été conduite par l’ILP. Le rapport émis préconise, à défaut de la construction à court terme d’une installation académique « intermédiaire », le maintien de la compétitivité de l’installation existante et le développement renforcé d’un programme de R&D laser, en partenariat avec les industriels français du domaine, afin de conduire à long terme, entre autres applications, à la réalisation d’une chaîne laser de nouvelle génération, brique de base de l’installation HiPER.

Cette démarche multi-échelles en termes d’installations est également utilisée en fusion par confinement magnétique, avec la même nécessité de soutien pérenne.

Annexe

Signification des sigles et des abréviations.
1D, 2D, 3D : une (deux, trois) dimension(s)
APOLLON : installation conçue autour d’un laser d’une puissance de 10 PW dédiée aux expériences d’interactions avec la matière à très haute intensité.
BKT : Berezinsky-Kosterlitz-Thouless
CCD : Charged-Coupled Device
CEA : Commissariat à l’Énergie Atomique et aux énergies alternatives
CILEX : Centre Interdisciplinaire Lumière Extrême
EIT : Electromagnetically Induced Transparency
ELI : Extreme-Light-Infrastructure
ELI-NP : Extreme-Light-Infrastructure – Nuclear Physics
EURATOM : European Atomic Energy Community (Communauté européenne de l’énergie atomique)
FEL (LEL) : Free-Electron-Laser (Laser à Électrons Libres)
fs : femtoseconde = 10-15 s
GBAR : Gravitational Behaviour of Antihydrogen at Rest
GDR : Groupement de Recherche
GENCI : Grand Équipement National de Calcul Intensif
GYSELA : GYrokinetic SEmi-LAgrangian (code gyrocinétique 5D)
HAP (PAH) : Hydrocarbure Aromatique Polycyclique (Polycyclic Aromatic Hydrocarbon)
HDE : Haute Densité d’Énergie
HiPER : European High Power Laser Energy Research Facility
HPP : Hautes Puissances Pulsées
ILP : Institut Laser-Plasma
IR : InfraRouge
ITER : International Thermonuclear Experimental Reactor
KTP : Potassium (K) Titanyl Phosphate
LED : Light-Emitting Diode
LIDAR : Light Detection and Ranging
LMJ-PETAL : Laser MégaJoule – PETawatt Aquitaine Laser
MHD : MagnétoHydroDynamique
MIGA : Antenne gravitationnelle basée sur l’interférométrie atomique (EquipEx)
NIC : National Ignition Campaign
NIF : National Ignition Facility
NLSE : Non Linear Schrödinger Equation
NV : Nitrogen Vacancy
OCT : Optical Coherent Tomography
PALM : Photo-Activated Localization Microscopy
PHARAO : Projet d’Horloge Atomique par Refroidissement d’Atomes en Orbite
PIC : Particle-in-Cell
PRACE : Partnership for Advanced Computing in Europe
ps : picoseconde = 10-12 s
PW : pétawatt = 1015 W
QED : Quantum ElectroDynamics
REFIMEVE+ : RÉseau FIbré MÉtrologique à Vocation Européenne+
SFO : Société Française d’Optique
SNOM : Scanning Near-field Optical Microscopy
SOLEIL : Source Optimisée de Lumière d’Énergie Intermédiaire du LURE
STED : Stimulated-Emission-Depletion microscopy
STORM : Stochastic Optical Reconstruction Microscopy
SYRTE : Systèmes de Référence Temps-Espace
t-DMRG : Time-dependent Density Matrix Renormalization Group
THz : térahertz = 1012 Hz
TW : térawatt = 1012 W
UHI : Ultra-Haute Intensité
UV : UltraVioletV
CSEL : Vertical-Cavity Surface-Emitting Laser
VIRGO : grand interféromètre franco-italien de détection des ondes gravitationnelles
VUV : Vacuum UltraViolet
WEST : Tungsten (W) Environment in Steady-state Tokamak
X-FEL : X-Ray Free Electrons laser
XUV : eXtreme UltraViolet