Rapport de conjoncture 2014

Physique nucléaire et physique des particules

Section 01 : Interactions, particules, noyaux, du laboratoire au cosmos

Extrait de la déclaration adoptée par le Comité national de la recherche scientifique réuni en session plénière extraordinaire le 11 juin 2014

La recherche est indispensable au développement des connaissances, au dynamisme économique ainsi qu’à l’entretien de l’esprit critique et démocratique. La pérennité des emplois scientifiques est indispensable à la liberté et la fécondité de la recherche. Le Comité national de la recherche scientifique rassemble tous les personnels de la recherche publique (chercheurs, enseignants-chercheurs, ingénieurs et techniciens). Ses membres, réunis en session plénière extraordinaire, demandent de toute urgence un plan pluriannuel ambitieux pour l’emploi scientifique. Ils affirment que la réduction continue de l’emploi scientifique est le résultat de choix politiques et non une conséquence de la conjoncture économique.

L’emploi scientifique est l’investissement d’avenir par excellence
Conserver en l’état le budget de l’enseignement supérieur et de la recherche revient à prolonger son déclin. Stabiliser les effectifs ne suffirait pas non plus à redynamiser la recherche : il faut envoyer un signe fort aux jeunes qui intègrent aujourd’hui l’enseignement supérieur en leur donnant les moyens et l’envie de faire de la recherche. On ne peut pas sacrifier les milliers de jeunes sans statut qui font la recherche d’aujourd’hui. Il faut de toute urgence résorber la précarité. Cela suppose la création, sur plusieurs années, de plusieurs milliers de postes supplémentaires dans le service public ainsi qu’une vraie politique d’incitation à l’emploi des docteurs dans le secteur privé, notamment industriel.

Composition de la section

Yorick Blumenfeld (président de section) ; Santiago Pita (secrétaire scientifique) ; Gilles Ban ; Christophe Beigbeder Beau ; Olivier Dorvaux ; Arnaud Duperrin ; Magali Estienne ; Jules Gascon ; Michel Guidal ; Delphine Hardin ; Jean-Marc Jung ; Sonja Kabana ; Imad Laktineh ; Thierry Lamy ; Jean-Pierre Lees ; Nicolas Leroy ; Arnaud Lucotte ; Jean-François Mathiot ; Sahbi Selmane ; Laurent Vacavant ; Pascal Vincent.

Résumé

La section 01 traite de la physique corpusculaire : physique nucléaire, hadronique, physique des particules, astroparticules et cosmologie et leurs applications, particulièrement dans les domaines médical et de l’énergie. Le résultat le plus spectaculaire des quatre dernières années est la découverte du boson de Higgs qui récompense un fort investissement des équipes françaises pendant plusieurs décennies et la mise en service du plus grand appareillage jamais dédié à la recherche fondamentale, le Large Hadron Collider (LHC) au CERN. Dans le secteur des neutrinos les premières mesures de l’angle de mélange θ13 ont été effectuées. En astroparticules on peut citer les 3 000 sources de rayons gamma de haute énergie découvertes avec l’instrument LAT du satellite Fermi et en cosmologie la carte du fond diffus (CMB) mesuré par le satellite Planck. L’expérience ALICE au CERN recrée les conditions des premières microsecondes de l’univers et la tomographie du nucléon s’achève auprès de l’accélérateur américain JLAB. Les noyaux exotiques continuent de révéler de nouvelles facettes de la structure du noyau atomique. Le développement au sein des laboratoires d’instrumentation toujours plus performante accompagne les avancées scientifiques. Les sections efficaces nécessaires pour modéliser de nouvelles filières d’énergie nucléaire sont mesurées et des détecteurs pour la thérapie par protons et hadrons sont développés.

Introduction

Les objectifs de la physique subatomique sont de trouver les briques élémentaires de la nature, d’étudier leurs propriétés et de comprendre la façon avec laquelle elles forment la matière et font évoluer l’Univers. La recherche des constituants élémentaires et l’étude de leurs propriétés et de leurs origines correspondent aux champs d’investigation des physiques des particules et des astroparticules. La structuration de la matière à l’échelle microscopique fait partie des interrogations de la physique nucléaire et de la physique hadronique et, à l’échelle de l’Univers, de celles de l’astrophysique nucléaire et de la cosmologie. La recherche expérimentale en physique subatomique s’effectue dans le cadre de collaborations internationales en utilisant des très grands instruments.

En outre, la physique subatomique a toujours eu un très fort impact sur la société : elle a conduit à la découverte de l’énergie nucléaire et continue à apporter des réponses aux problèmes sociétaux, comme par exemple dans la lutte contre le cancer.

I. Structure et dynamique nucléaire

La physique nucléaire de basse énergie s’intéresse à l’étude de la structure des noyaux atomiques en termes de nucléons, neutrons et protons, et à leur transformation par radioactivité ou réactions nucléaires.

Jusqu’aux années quatre-vingt la structure des noyaux stables à basse énergie a été largement étudiée et comprise. L’avènement de nouveaux équipements, accélérateurs et détecteurs, a permis depuis d’étendre les frontières de nos connaissances vers les noyaux dans des états extrêmes d’isospin, de spin, de température, de compression et de masse. Les chercheurs français ont joué un rôle majeur, tant du point de vue expérimental que théorique.

L’étude des noyaux légers très riches en neutrons permet d’atteindre les limites de la cohésion nucléaire (drip-line) et même d’aller au-delà pour explorer des résonances non liées. Les qualités uniques au monde des faisceaux de 6He et de 8He de SPIRAL ont permis leur étude détaillée ainsi que la mesure de la spectroscopie des noyaux non liés 7H, 7He et 9He. L’influence de la très faible énergie de séparation des neutrons de 6He et 8He sur les mécanismes de réaction a été étudiée en détail. Les équipes françaises ont récemment initié des programmes auprès du RIKEN au Japon, qui permettront de suivre la drip-line neutron au-delà des noyaux de Mg.

L’étude des noyaux légers jusqu’au carbone, au niveau de la structure mais aussi des réactions nucléaires, est aussi l’objet d’une intense activité théorique dans le cadre de calculs ab-initio, c’est-à-dire de calculs basés sur des potentiels nucléon-nucléon élémentaires. La mise en œuvre de ces calculs est l’occasion d’un rapprochement particulièrement fructueux entre théoriciens en structure nucléaire et en physique hadronique.

Il est maintenant bien établi que les nombres magiques, paradigme de la structure nucléaire, ne sont plus universels quand on s’éloigne de la stabilité. On peut citer en particulier l’îlot de l’inversion, situé autour de N=20, remplacé comme nombre magique par N=16 loin de la stabilité, ou la disparition de la magicité de N=28 pour les noyaux très riches en neutrons. Les réactions de transfert d’un nucléon permettent les études les plus précises des niveaux d’énergie de particules dans les noyaux et ont été largement explorées ces dernières années auprès du GANIL avec le détecteur de rayons gamma EXOGAM et les détecteurs de particules chargées MUST/MUST2 et TIARA. L’évolution des nombres magiques 50 et 82 loin de la stabilité se poursuivra dans les années à venir, d’une part avec le détecteur gamma de nouvelle génération AGATA au GANIL, et d’autre part auprès d’ALTO et SPIRAL2. Ces études permettent de mieux comprendre l’abondance des éléments au-delà du Fe produits par le processus r lors d’événements stellaires violents.

Toutes ces études sont particulièrement riches d’enseignement pour comprendre d’un point de vue théorique la structure nucléaire, que ce soit dans le cadre des théories de champ moyen, et au-delà du champ moyen, ou dans celui du modèle en couches. En particulier, elles mettent en évidence le rôle des interactions de type tenseur ou l’importance des forces à trois corps. L’étude de ces dernières est aussi un sujet d’étude en physique hadronique dans le cadre de théories effectives bâties sur la Chromodynamique Quantique (QCD).

Les transformations radioactives ont été depuis toujours des clés de notre compréhension du noyau atomique. Une découverte majeure de ces dernières années a été celle de la radioactivité deux-protons, qui donne accès aux corrélations entre protons dans le noyau, et dont les caractéristiques ont pu être étudiées en détail dans les noyaux de 45Fe et 54Zn par la mise en service d’une chambre à projection temporelle spécialement dédiée à ces mesures. Des indications pour l’existence de la radioactivité deux-neutrons ont été récemment publiées et pourront être confirmées par des expériences auprès du GANIL dans un futur proche.

Les noyaux lourds constituent un laboratoire unique pour étudier la structure et la dynamique nucléaire sous l’influence de forces de Coulomb importantes. En effet, la stabilité des noyaux au-delà du noyau doublement magique 208Pb, décroît rapidement jusqu’à la région des noyaux dits transfermiens (Z>100). Au-delà, cette stabilité n’est due qu’à des effets quantiques. Cette tendance à la baisse de stabilité se renverse pour des noyaux déformés autour d’un nombre de protons Z=100 et de neutrons N=152 Les orbitales mises en jeu dans cette région déformée jouent alors un rôle crucial dans la prédiction du positionnement de l’ultime îlot de stabilité correspondant à la région des noyaux superlourds (Z=114, 116 ou 122), ce qui a entraîné un regain d’intérêt pour la spectroscopie de ces noyaux.

L’arrivée de dispositifs expérimentaux performants autour de la cible et des plans focaux des séparateurs de fragments de recul a permis d’étudier des noyaux jusqu’à présent très mal connus. La communauté française est fortement impliquée dans de nouveaux projets tels que le projet GABRIELA à Dubna (Russie), un des fiefs mondiaux de l’étude et la synthèse des noyaux superlourds et le projet JUROGAM II à Jyväskylä (Finlande) où l’étude spectroscopique du noyau le plus lourd jamais atteint, le noyau 256Rf (Z=104), a été réalisée récemment. Dans un futur proche, l’avènement du Super Séparateur Spectromètre S3 couplé aux faisceaux de très haute intensité délivrés par l’accélérateur linéaire LINAG du projet SPIRAL2 permettra de repousser à nouveau les frontières de l’exploration des noyaux superlourds.

Pour produire de tels éléments, l’étude des mécanismes de réaction conduisant à leur synthèse est nécessaire. Deux approches sont alors possibles :

– la synthèse des éléments superlourds est conditionnée par des sections efficaces de production extrêmement faibles. Il est donc crucial de comprendre les mécanismes de réactions mis en jeu, tels la fusion-fission ou la quasi-fission, qui empêchent la formation du noyau superlourd souhaité. Un important travail d’investigation de ces mécanismes a déjà été entrepris en mesurant de façon novatrice les distributions isotopiques des produits de fission auprès du spectromètre VAMOS en utilisant un faisceau de 238U en cinématique inverse. Il est nécessaire de continuer ce type d’investigation pour des systèmes identiques mais à basse énergie, là où les effets de couche ont toute leur importance. Un tel programme est amorcé auprès du dispositif SOFIA au GSI (Darmstadt, Allemagne). Une nouvelle installation, le projet LICORNE auprès d’ALTO à Orsay, permettra également la mesure de rayons gamma prompts issus de la fission induite par neutrons rapides pour les isotopes 235U et 238U. Ces résultats trouveront toute leur importance pour la physique des réacteurs.

– l’étude de la surface d’énergie potentielle au travers la détermination de la barrière de fission, par la mesure de la multiplicité et l’énergie totale des rayonnements gamma. Une expérience phare a été réalisée à ATLAS (Argonne, USA) auprès du séparateur de fragments de reculs FMA associé au multidétecteur gamma GAMMASPHERE qui a permis d’estimer une barrière de fission de 6,2 MeV pour le noyau 254No (Z=102). Des mesures systématiques de barrière de fission devront se généraliser et pourront notamment se réaliser dans un proche avenir au GANIL auprès du spectromètre VAMOS et auprès de l’infrastructure ALTO avec l’avènement d’un nouveau calorimètre de rayonnement gamma, le détecteur PARIS.

La synthèse des noyaux bien plus légers trouve toute son importance en astrophysique nucléaire pour comprendre la nucléosynthèse des éléments présents dans l’Univers. Le big-bang, les étoiles et l’interaction du rayonnement cosmique avec le milieu interstellaire sont les principaux sites de nucléosynthèse identifiés. Il est donc fondamental d’étudier les réactions nucléaires impliquées dans ces sites. Ainsi un programme conséquent de mesures de sections efficaces de réactions d’intérêt astrophysique (12C+12C, 12C+16O, 12C(α,γ)16O…) a été entrepris ces dernières années auprès d’ALTO ou au laboratoire ANL (Argonne, USA).

L’équation d’état de la matière nucléaire asymétrique est une donnée fondamentale, importante pour la compréhension de la structure des étoiles à neutrons. La composition isotopique des produits de collisions d’ions lourds induites par des faisceaux riches en neutrons donne des indications précieuses sur l’énergie de symétrie qui pourront être précisées lors de l’avènement du détecteur très ambitieux FAZIA. La résonance géante monopolaire renseigne sur l’incompressibilité de la matière nucléaire. Les premières mesures de cette résonance dans des noyaux instables (56Ni et 68Ni) ont été récemment réalisées au GANIL à l’aide de la cible active ACTAR.

Les études de structure nucléaire théoriques mentionnées précédemment sont ici indispensables pour contraindre l’équation d’état de la matière nucléaire dans les domaines en densité et asymétrie nucléaire inaccessibles à l’expérience.

Les mesures de haute précision de décroissances radioactives de type bêta sont parmi les tests les plus contraignants du modèle standard de la physique des particules, et sont complémentaires des études à haute énergie du LHC. Elles ont permis en particulier la détermination de l’élément Vudde la matrice CKM de mélange des quarks et la confirmation de son unitarité. La recherche d’interactions faibles de type scalaire ou tenseur, violant le modèle standard, passe par l’étude de corrélations électron-neutrino dont une des mesures les plus précises provient d’ions 6He produits par SPIRAL et confinés dans un original piège de Paul.

Une recherche de niveau mondial en physique nucléaire se fonde sur des accélérateurs et des détecteurs de haute technologie. L’accélérateur GANIL, accompagné de son installation de faisceaux radioactifs SPIRAL, TGE commun au CEA et au CNRS, a permis à la France d’être à la pointe dans ce domaine où la concurrence internationale est vive. Le projet SPIRAL2, actuellement en construction, qui fournira des faisceaux d’ions lourds stables (phase 1) et radioactifs (phase 2) d’intensité inégalée au monde, est parfaitement conçu pour permettre à la France de maintenir son rang, à condition qu’il soit réalisé complètement et dans les délais impartis. Durant la période de construction, les détecteurs originaux construits par les équipes françaises pourront être déplacés sur d’autres sites internationaux afin d’assurer la continuité de la production scientifique.

II. Hadrons et matière hadronique

La physique hadronique étudie la structure, les propriétés et les interactions des constituants de la matière appelés hadrons, eux-mêmes constitués de quarks et gluons. La théorie sous-jacente est la Chromo-Dynamique Quantique (QCD). Cette théorie décrit l’interaction forte, l’une des quatre forces fondamentales de la nature connues à ce jour qui gouvernent l’Univers. Selon les énergies, distances, densités mises en jeu, QCD mène à une multitude de phénomènes extrêmement riches, la plupart restant mal compris à ce jour : du confinement des quarks et gluons à l’intérieur des hadrons qui forment la matière ordinaire (on les appelle alors nucléons) au plasma de quarks et gluons où ces mêmes quarks et gluons apparaissent comme une soupe de particules élémentaires (quasi) libres. Les équipes de l’IN2P3 sont impliquées dans plusieurs expériences et projets en Europe et aux États-Unis.

A. Structure des hadrons

Dans le domaine de la structure du nucléon, un important programme expérimental est mené depuis de nombreuses années auprès de l’accélérateur d’électrons JLab-6GeV (États-Unis). Ce programme se poursuivra auprès de JLab-12GeV, sur le point d’être opérationnel. D’un point de vue théorique, cette structure est entièrement caractérisée par les fonctions de distribution de partons généralisées. Ces distributions déterminent les corrélations en impulsion et position des quarks à l’intérieur du nucléon. On parle de « tomographie » du nucléon dans le sens où l’on sonde l’expansion spatiale du nucléon pour diverses tranches d’impulsion de quarks. Ces distributions sont accessibles expérimentalement à travers des expériences de diffusion Compton profondément virtuelle, c’est-à-dire la diffusion Compton au niveau des quarks, sur le nucléon et les noyaux. Les premiers résultats expérimentaux, associés à un important travail phénoménologique d’interprétation, montrent que les quarks de valence (ceux de plus grande impulsion et qui donnent les nombres quantiques au nucléon) sont localisés au cœur du nucléon alors que les quarks de la mer (de faible impulsion) s’étendent jusqu’à sa périphérie.

D’une manière complémentaire, dans le cadre du futur laboratoire international FAIR (Allemagne) qui fournira un faisceau d’antiprotons de 1.5 à 15 GeV vers 2020, une équipe française s’investit au sein de la collaboration PANDA pour étudier la structure électromagnétique du nucléon en utilisant des processus électromagnétiques dans les réactions d’annihilation proton-antiproton. Il s’agit, par exemple, de mesurer les facteurs de forme électromagnétiques du proton dans la région temps sur un large domaine cinématique.

D’un point de vue théorique, les calculs de QCD sur réseau se développent très rapidement et permettent d’ores et déjà d’accéder directement à certaines caractéristiques fondamentales de la structure du nucléon. Les théories effectives déduites de QCD à basse énergie permettent notamment de comprendre la répartition entre quarks de valence et quarks de la mer. Des mesures de la polarisation du nucléon sous l’effet de champs électriques et magnétiques effectuées à Mayence (collaboration MAMI) donnent aussi l’occasion de tester la valeur prédictive de ces théories effectives.

B. Hadrons dans le milieu nucléaire

L’expérience HADES installée au GSI (Allemagne) étudie les effets de milieu sur les propriétés des hadrons à l’aide de faisceaux d’ions lourds de plusieurs GeV sur des cibles fixes. Cela permet d’obtenir des densités de matière comprises entre une fois et trois fois la densité nucléaire normale à des températures modérées (T < 80 MeV). La caractérisation de ce milieu est effectuée grâce à la détection de la production de paires de leptons. Les physiciens français étudient plus particulièrement, et de façon systématique, les mécanismes de production de ces paires de leptons en réactions élémentaires (avec des faisceaux de protons, deutons ou pions), ce qui est essentiel pour comprendre les effets de milieu. Ce programme est en cours et devrait être mené jusqu’en 2015-2016.

Ces effets de milieu sur les propriétés du nucléon permettent d’avoir accès aux interactions auxquelles est soumis celui-ci dans un milieu dense. Elles complètent ainsi les études de structure nucléaire à densité ordinaire et à basse énergie et des études à plus haute densité proches de la transition de déconfinement des quarks et gluons. D’un point de vue théorique, elles sont importantes pour comprendre le lien étroit qui doit exister entre la structure des nucléons et leurs interactions mutuelles.

C. Matière nucléaire dense et chaude

Lorsque l’on comprime ou chauffe suffisamment la matière ordinaire, il est possible d’effectuer une transition vers un état déconfiné de quarks et gluons (quasi)-libres de se mouvoir sur une distance plus grande que la taille caractéristique d’un hadron : c’est le plasma de quarks et de gluons. Cet état serait caractéristique d’une phase de l’évolution de l’univers primordial quelques micro-secondes après le Big-Bang. Sur terre, les collisions d’ions lourds de très haute énergie permettent de produire cette matière sur un temps extrêmement bref et dans un volume infime. Un certain nombre de programmes internationaux ayant développé des appareillages sophistiqués et utilisant des puissances de stockage et de calculs informatiques phénoménales se sont lancés dans sa recherche.

Les expériences au SPS du Cern puis au RHIC de Brookhaven (expériences Star et Phenix notamment), auxquelles les équipes françaises ont grandement contribué dans les décennies passées, ont fait la preuve que cette matière déconfinée pouvait être créée en laboratoire et ont entamé la caractérisation de ses propriétés chimiques et thermodynamiques. La communauté française se consacre désormais en majorité aux expériences ALICE et CMS auprès du LHC au CERN. Ce dernier a connu ses premières collisions d’ions lourds de plomb fin 2010 puis en 2011 à des énergies de l’ordre du TeV, c’est-à-dire 10 fois plus élevées qu’à RHIC et avec des densités d’énergie 3 fois plus grandes, bien au-delà de la densité critique de formation du plasma. À ces énergies une très nette augmentation de la section efficace des processus dits « durs » (comme la production de saveurs lourdes ou de jets) se produit, enrichissant le spectre de physique accessible au LHC. L’étendue des données collectées depuis le démarrage du LHC, reflet du succès des prouesses technologiques auxquelles la communauté française a grandement contribué, a permis aux physiciens français d’ALICE et de CMS de s’impliquer avec succès dans les analyses de physique en lien avec les thématiques de leurs expertises : physiques des muons, de l’étrangeté, du charme ouvert, des jets et des photons.

Beaucoup des observations faites à RHIC concernant le milieu produit ont été confirmées de façon cohérente au LHC. L’accès à un domaine d’impulsions transverses plus élevé qu’à RHIC a permis de montrer une diminution, à ces impulsions, de la perte d’énergie des quarks à la traversée du milieu dense, en accord avec la QCD. La mesure des bosons de référence W et Z devient accessible à la physique des ions lourds tout comme celle des jets et des dijets. Ces derniers ont révélé de surprenants résultats sur le scénario de perte d’énergie désormais en cours d’investigation. Le J/Ψ, bien que supprimé dans le milieu, serait aussi régénéré par des processus de recombinaison de quarks charmés lors du refroidissement du plasma. Leur étude devra désormais être couplée à celles du charme ouvert. Les états liés de quarks-antiquarks lourds, comme les bottomonia, deviennent la meilleure preuve actuelle de l’écrantage de couleur des quarks lourds dans le milieu. Les premières collisions asymétriques (p-Pb et Pb-p) de 2013 sont déjà riches d’information et laissent présager un bel avenir aux prises de données à venir qui coupleront augmentation de luminosité et multiplication des systèmes de mesure.

La caractérisation de cet état de la matière, notamment dans le cadre du « color glass condensate », l’étude des propriétés de ces états liés dans le plasma ou encore la propagation des quarks et gluons dans la matière nucléaire est aussi au cœur des préoccupations d’une large communauté de théoriciens en France.

Tous ces programmes et projets de physique fondamentale sont accompagnés de réalisations techniques considérables : la conception, construction, mise en opération et maintenance d’appareillages de détection ou de sources, importants et originaux par plusieurs aspects tels que calorimètres électromagnétiques (JLab et ALICE), détecteurs de neutrons (JLab), source de positrons polarisés (JLab), chambres à fils (HADES), spectromètre à muons (ALICE), trajectographe interne (ALICE), détecteur de déclenchement (V0 pour ALICE).

III. Physique des particules

La physique des particules s’attache à l’étude des interactions entre les constituants fondamentaux de la matière, à la compréhension de l’origine de leur masse et enfin aux symétries discrètes d’espace et de temps. La description qu’elle dresse au niveau microscopique permet de faire le lien avec les observations astrophysiques et cosmologiques, avec notamment la recherche de matière noire.

Le modèle standard de la physique des particules a été élaboré depuis les années 60. Il s’agit d’une théorie quantique des champs, renormalisable, qui introduit trois interactions fondamentales : forte, assurant la cohésion des noyaux, faible, responsable de la radioactivité par exemple, et électro-magnétique. Les particules élémentaires se classent en particules de champs de matière, les fermions, et les particules médiatrices des interactions, les bosons. Il y a trois familles de fermions, chacune comportant deux quarks et deux leptons, un lepton chargé et son neutrino associé. À chaque particule correspond également son antiparticule. Dans le modèle standard, le mécanisme donnant leur masse aux particules est le mécanisme de Brout-Englert-Higgs, qui prédit l’existence d’un boson, dit boson de Higgs.

Bien que confirmé par un grand nombre de mesures, notamment dans le secteur électrofaible, le modèle standard apparaît comme incomplet, i.e. une description qui doit être incluse dans un contexte théorique plus large. En particulier, il n’explique pas l’asymétrie observée entre matière et antimatière dans l’univers et ne rend pas compte dans sa formulation présente du caractère massif des neutrinos. Il n’offre pas non plus de candidat valable à la matière noire.

De nombreuses théories sont développées et testées auprès des collisionneurs. Elles font l’objet de recherches directes, via la mise en évidence de nouvelles particules, ou indirectes, via la détection de déviations dans les propriétés des particules observées. Dans le domaine des hautes énergies, après le LEP, les équipes françaises se sont investies massivement sur les expériences auprès de collisionneurs hadroniques du Tevatron et du LHC, qui permettent l’étude précise de la violation de CP et la recherche de ces signes de nouvelle physique. Entamé depuis 2010, ce programme devrait se poursuivre pendant les 15 prochaines années et devrait être complété par une participation au programme du futur collisionneur e+e. Dans le domaine des neutrinos, les expériences concernent aussi bien la détermination précise de la matrice gouvernant les oscillations des neutrinos, que la détermination de sa nature. En France, elles concernent des expériences situées auprès des réacteurs, comme auprès de faisceaux de neutrinos, présents et futurs.

A. Boson de Higgs

L’observation en 2012 par les expériences ATLAS et CMS auprès du LHC d’un nouveau boson, a priori compatible avec le boson de Higgs du modèle standard imaginé il y a près de 50 ans par Brout, Englert et Higgs (prix Nobel 2013), constitue une avancée fondamentale pour la discipline. Elle ouvre en effet la porte à une compréhension plus fine du mécanisme de brisure de la symétrie électrofaible et de la génération des masses des particules élémentaires, l’une des questions les plus importantes de notre domaine. L’étude détaillée qui commence des propriétés de ce boson, et en particulier de ses couplages aux particules élémentaires, est d’une portée majeure : toute déviation même minime par rapport aux prédictions du modèle standard sera le signe de nouvelle physique.

Le boson observé a une masse relativement faible, d’environ 125 GeV. Antérieurement à la découverte au LHC, ce domaine de masse était déjà favorisé par plusieurs observations expérimentales : les ajustements globaux de nombreuses observables dont la mesure précise en particulier auprès du collisionneur LEP conduisait à des contraintes indirectes sur cette masse ; la recherche directe et infructueuse au LEP qui impliquait une masse supérieure à 114 GeV ; et finalement un excès d’événements compatibles avec une masse d’un boson de Higgs entre 115 et 140 GeV, obtenu par les expériences CDF et D0 auprès du collisionneur Tevatron près de Chicago.

La contribution de la communauté française à l’ensemble de ces résultats expérimentaux auprès notamment des machines LEP et Tevatron a été très importante. Le rôle joué par les groupes français d’ATLAS et CMS pour la découverte du boson de Higgs est majeur. Cette découverte a en effet été obtenue dans les canaux de désintégration en deux photons (H→γγ), et en deux bosons (ZZ* ou WW*), avec décroissances des Z et W en électrons ou en muons. Dès la conception des deux détecteurs, la communauté française a eu un rôle moteur dans la calorimétrie électromagnétique, avec au cœur de la stratégie la volonté d’optimiser le potentiel de découverte, en particulier via le canal H→γγ. Ces investissements ont été poursuivis par un travail de fond sur l’identification des particules afférentes (γ, électrons, muons) et les analyses physiques de recherche du boson de Higgs (H→γγ et H→ZZ* en leptons).

Les mesures des propriétés du boson de Higgs sont affinées actuellement grâce à l’ensemble des données du Run 1. Le spin et la parité, comme le nombre d’événements observés dans les différents canaux, sont largement compatibles avec les attentes pour un boson de Higgs du modèle standard. La masse est dorénavant mesurée avec une précision d’environ 3 pour mille, et une limite supérieure sur la largeur totale a été obtenue. Ces succès et les espoirs que suscite la prochaine prise de données ont conforté le LHC dans son rôle de projet international prioritaire et sans équivalent dans le domaine.

La prochaine étape majeure est le Run 2 (ou Phase 0) du LHC, qui fournira de 2015 à 2018 environ dix fois plus d’événements intéressants pour l’étude du boson de Higgs que le Run 1, à une énergie dans le centre de masse presque doublée. L’un des objectifs principaux sera l’étude des couplages du boson de Higgs aux fermions : la désintégration en leptons tau pourra être mesurée plus précisément, et la désintégration en deux quarks bottom pourra être établie. L’étude du couplage au quark top est également essentielle, ce dernier jouant un rôle particulier du fait de sa masse très élevée. Pour ce faire, la production du boson de Higgs en association avec une paire de quarks top sera recherchée. Pour toutes ces études, la trajectographie et l’identification des jets de quark bottom sont des éléments essentiels. Là aussi, les groupes français ont eu un impact majeur dans la conception et construction des détecteurs (pixels pour ATLAS, micro-pistes pour CMS), leur utilisation pour l’identification des vertex déplacés des jets b, et les analyses de physique reliées. Les données du Run 2 permettront d’étudier en détail les couplages du boson de Higgs, d’étudier différents modes de production, et d’éventuellement de découvrir d’autres bosons de type Higgs et/ou de tester si cette particule est élémentaire ou composite. Ce travail sera poursuivi grâce à la Phase 1 (triplement de la quantité de données sur la période 2018-2021) pour laquelle des modifications des détecteurs sont en cours d’étude.

La phase à haute luminosité du LHC ou Phase 2, en décuplant à nouveau la statistique à l’horizon 2030 (3000 fb-1 par expérience), doit permettre d’atteindre une précision sur les couplages de 5 % (bosons) à 10 % (fermions), soit un facteur 2 d’amélioration par rapport à la Phase 1 ; d’observer les désintégrations rares (H→μμ, H→Zγ, etc.) et de rechercher de nouveaux bosons de Higgs au-delà du modèle standard. La production de deux bosons de Higgs pour étudier l’auto-couplage du Higgs, un paramètre majeur, devrait être également accessible. Une amélioration substantielle des détecteurs ATLAS et CMS est cependant nécessaire pour qu’ils puissent résister au très haut flux de particules attendu dans cette phase, les R&D sur ces aspects débutent actuellement.

La communauté française est également impliquée de longue date dans la R&D (détecteurs : calorimétrie ultra-granulaire et détecteurs de vertex, mais aussi accélérateur) pour un futur collisionneur linéaire ILC. Celui-ci pourrait être construit au Japon et être opérationnel à partir de 2025. Cette machine, dans une configuration avec au moins 500 GeV d’énergie dans le centre de masse, permettrait d’améliorer notablement la précision sur la mesure des couplages du boson de Higgs, dans un environnement e+e plus simple qu’au LHC. Finalement, notons que l’exploration du potentiel de physique qu’aurait une possible future machine circulaire post-LHC dans un tunnel d’environ 80 km de circonférence a également débuté.

B. Physique des saveurs

La physique des saveurs a longtemps été perçue comme un outil de précision pour tester le modèle standard. Les expériences BaBar et Belle, installées auprès des usines à B, ont permis de valider le mécanisme de Kobayashi-Maskawa comme source de la violation de la symétrie CP, et d’observer pour la première fois la violation de CP prédite pour les mésons B0d et B+. Grâce à plusieurs milliards de mésons B produits et à de nombreux modes de désintégration étudiés, ces deux expériences ont permis de mesurer avec une précision inédite de nombreuses observables permettant de contraindre fortement les paramètres de la matrice CKM, qui permet de relier les états propres de saveur aux états propres de masse. La grande cohérence et la redondance des mesures obtenues n’ont à ce jour pas permis de prendre en défaut les prédictions du modèle standard. Nous savons cependant que la violation de CP du modèle standard n’est pas suffisante pour décrire l’asymétrie entre matière et antimatière dans l’Univers, et qu’une explication possible pourrait être l’existence d’autres sources de violation de CP dans des théories au-delà du modèle standard.

L’étude des désintégrations rares et celle de la violation de CP sont des outils privilégiés pour la recherche indirecte des signes de physique au-delà du modèle standard. Ces processus peuvent en effet être sensibles à des contributions dues à de la nouvelle physique, par l’intermédiaire d’effets quantiques mettant en jeu des particules virtuelles massives. Ils permettent donc d’accéder à l’échelle de masse et aux couplages de la nouvelle physique au-delà du seuil de production directe. De telles mesures permettent ainsi de compléter utilement les recherches directes menées au LHC dans des expériences comme CMS ou ATLAS, en contraignant les modèles de nouvelle physique compatibles avec les observations expérimentales dans le secteur de la saveur.

Sur le plan expérimental, le panorama des expériences a évolué ces dernières années, avec dans le secteur des Kaons la fin de NA48, et dans le secteur de la Beauté celle de BaBar ainsi que l’abandon du projet italien de super usine à B à Frascati. La communauté française est donc essentiellement concentrée sur LHCb et ses upgrades, et n’est plus présente dans le secteur des K. Notons également qu’au Japon, le projet de super usine à B, Belle II, devrait démarrer prochainement. Belle II est un collisionneur asymétrique e+e prévu pour atteindre une luminosité nominale de 8 × 1035 cm–2 s–1, soit 50 fois plus que celle de KEK et de PEPII. La question d’une éventuelle participation française a été évoquée mais ne semble plus à ce jour d’actualité.

La période 2011-2012 a été particulièrement fructueuse pour LHCb. Les précisions obtenues dans le secteur du B0d et du B+ sont d’ores et déjà supérieures à celles des usines à B pour les modes accessibles avec des collisionneurs hadroniques, et les résultats obtenus dans le secteur du B0Sont largement dépassé ceux du Tevatron et sont en bon accord avec le modèle standard. La désintégration B0s → μ+μ, l’un des modes phares, a ainsi été observée pour la première fois, à la valeur prédite par le modèle standard, et ces résultats permettent d’exclure de larges régions de l’espace des paramètres de modèles spécifiques. À l’horizon 2017, l’expérience LHCb aura accumulé 5 fb-1 de données, et les sensibilités sur les observables phares seront comparables aux valeurs attendues du modèle standard.

Il semble désormais acquis que les effets de nouvelle physique, s’ils existent, se manifestent par des déviations extrêmement faibles par rapport aux prédictions du modèle standard, et nécessitent donc des mesures de précision basées sur des échantillons de très haute statistique. Pour cela, LHCb s’est engagé dans une jouvence du détecteur qui permettra à ce dernier de fonctionner à partir de 2019 à une luminosité instantanée de 1033 cm–2 s–1et de collecter environ 50 fb–1 au bout de 10 ans. Ceci devrait permettre d’améliorer les précisions expérimentales sur les observables phares par au moins un ordre de grandeur.

C. Neutrinos

Les résultats obtenus au cours des deux dernières décennies dans le domaine du neutrino ont bouleversé le paysage de la physique des particules. Les travaux menés en France ces quatre dernières années se sont concentrés sur des activités liées aux questions qui subsistent dans le domaine du neutrino malgré le progrès réalisé. Elles permettront également d’apporter des explications dans d’autres domaines de la physique des particules comme celle de la violation de parité de la matière baryonique.

1. Oscillations des neutrinos : la matrice PMNS

Le phénomène des oscillations des neutrinos produits naturellement (atmosphériques et solaires) ou artificiellement (faisceaux et réacteurs) a été confirmé et exploré récemment par plusieurs expériences à travers le monde dont OPERA, Borexino, Double Chooz et T2K dans lesquelles les groupes français ont participé activement. OPERA a pu mettre en évidence l’oscillation des neutrinos muoniques en neutrinos tau en observant l’apparition de ces derniers grâce à la détection des leptons tau issus de l’interaction par courant chargé. Trois événements d’apparition ont ainsi été observés et l’analyse se poursuit pour compléter l’exploitation des données de cette expérience qui est arrivée à son terme avec l’arrêt du faisceau CNGS fin 2012.

Deux autres expériences ont apporté des résultats d’une grande importance. Ce sont l’expérience Double Chooz et l’expérience T2K au Japon. Double Chooz a repris le principe de l’expérience Chooz pour améliorer la détermination de l’angle θ13, mesuré pour la première fois à Daya Bay en étudiant le taux de disparition des anti-neutrinos produits par les deux réacteurs nucléaires situés à courte distance. Double Chooz entendait réaliser une mesure de cet angle en améliorant les incertitudes systématiques grâce à une meilleure compréhension du détecteur et du spectre des anti-neutrinos en première phase. En 2011 Double Chooz avait fourni une première indication sur la grande valeur de θ13 avec une mesure de sin2(2θ13) de l’ordre de 0.10. Elle devrait réduire ces incertitudes prochainement en utilisant deux détecteurs similaires à deux distances différentes par rapport aux réacteurs en deuxième phase. T2K exploite un faisceau de neutrinos muoniques, envoyé de JPARC vers le détecteur SuperKamiokande. La mesure du taux d’apparition des neutrinos de type électronique et la disparition de ceux muoniques à 295 km est étudiée en comparant les taux de ces derniers à l’aide d’un détecteur proche situé à 280 m. L’expérience T2K a pu dès 2011 observer la production de neutrinos électroniques compatible avec un grand angle θ13. L’augmentation de la statistique au cours des années suivantes a permis de confirmer la découverte du phénomène d’apparition de neutrinos électroniques dans le faisceau muonique. Les deux expériences ont clairement indiqué que l’angle de mélange θ13 est assez grand. Ces résultats ont été confirmés aussi par les deux expériences sur réacteur Daya-Bay en Chine et RENO en Corée. Elles ont pu, en effet, mesurer cet angle avec une meilleure précision. La valeur mesurée de l’angle θ13 permet d’espérer de mesurer un autre paramètre d’une importance capitale. Il s’agit de la phase δ qui caractérise la violation de CP dans le secteur des neutrinos.

La mesure de cette phase δ ainsi que la détermination de la hiérarchie de masse sont à l’origine de beaucoup d’activités R&D menées en France. Ces activités s’articulent autour du développement des détecteurs de grande masse capables de détecter efficacement des interactions de neutrinos de gammes d’énergie différentes sur des faisceaux de neutrino. Différentes technologies de détection (eau-Tcherenkov, liquide scintillant ou argon liquide) sont activement poursuivies. En plus des activités sur les détecteurs, les groupes français s’intéressent au développement des faisceaux intenses de neutrinos comme ceux étudiés dans les projets Laguna-LBNO et ESS.

2. Recherche des neutrinos stériles

Les résultats obtenus par l’expérience LSND et ceux des mesures de calibration des expériences GALLEX et SAGE sont difficilement conciliables avec un scénario de trois familles de neutrinos actifs. L’hypothèse de l’existence de neutrinos stériles est très attrayante. Pour rechercher ces neutrinos l’utilisation des sources nucléaires intenses ou des réacteurs nucléaires semblent deux scénarios privilégiés.

Les groupes français se sont fortement impliqués dans cette recherche. Le détecteur NUCIFER destiné à l’origine pour la non-prolifération devrait permettre de chercher des indications sur l’existence de ces neutrinos. Un autre projet appelé STEREO spécialement conçu pour la recherche de neutrinos stériles auprès du réacteur nucléaire compact ILL est actuellement en construction et pourrait apporter une réponse solide quant à l’origine des anomalies réacteurs et Gallium.

3. Nature de neutrinos

La nature des neutrinos (Dirac ou Majorana) est une des questions essentielles de la physique des neutrinos. Les expériences d’émission de deux électrons sans neutrino (0νββ) sont les plus susceptibles de répondre à la question. En France, les activités dans ce domaine se concentrent autour du projet SuperNemo, dans la continuité de l’expérience Nemo, basée sur la technique de l’association trajectographe-calorimètre. Le but est d’atteindre des sensibilités sur les masses de l’ordre de 0.04-0.1 eV après quelques années de prises de données. Après avoir développé un détecteur (BIPO) permettant de mesurer la radioactivité des sources avec une sensibilité remarquable, la construction d’un démonstrateur du SuperNemo est en cours pour valider le concept avec l’utilisation de Selenium-82 comme source double beta.

D. Recherche de nouvelle physique

Malgré ses succès, le modèle standard de la physique des particules apparaît comme une théorie effective issue d’une théorie sous jacente plus fondamentale. La description du modèle standard présente en effet des écueils expérimentaux, par exemple absence de candidat de matière noire ou caractère massif des neutrinos non inclus dans sa forme actuelle. L’existence de nouvelle physique apparaît donc nécessaire pour résoudre ces problèmes.

La recherche directe de physique au-delà du modèle standard se concentre pour une grande part sur les recherches auprès du LHC avec les expériences ATLAS et CMS. Les expériences auprès du LHC ont fourni leurs premiers résultats basés sur un lot d’événements correspondant à une luminosité intégrée délivrée dépassant 28 fb-1 à une énergie de 7 et 8 TeV dans le centre de masse au cours des prises de données de 2011 et 2012.

L’existence d’une nouvelle physique, se manifestant par l’apparition de nouveaux phénomènes (nouvelle particule, résonance, section efficace modifiée, asymétries, couplages anormaux…) n’a cependant pas été mise en évidence au Run 1 du LHC. Ces premiers résultats conduisent à des contraintes fortes sur les paramètres de nombreux modèles proposés pour décrire une éventuelle nouvelle physique. Par exemple les extensions supersymétriques les plus simples ainsi que les modèles de dimensions supplémentaires se trouvent déjà fortement contraints. D’autres tels que les modèles de technicouleur ont été pratiquement invalidés à la lumière de la découverte d’un boson de Higgs, car ne prédisant pas l’existence d’un tel champ scalaire.

1. La supersymétrie

Les extensions supersymétriques du modèle standard prédisent l’existence d’au moins un partenaire supersymétrique à chacune des particules connues du modèle standard. Elles ont également la vertu de faciliter l’unification des couplages des interactions électrofaibles et fortes à des échelles d’énergie de la grande unification. Elles nécessitent également l’extension du secteur des champs de Higgs, chaque boson de Higgs qui en est issu ayant alors lui même son partenaire supersymétrique (higgsino).

La présence de la supersymétrie se manifeste par des événements avec un grand nombre de jets, des leptons isolés (dans certaines configurations il s’agit majoritairement des leptons tau) et de l’énergie manquante.

Les squarks et les gluinos portant une charge de couleur, ces particules seraient les particules supersymétriques les plus abondamment produites au LHC si leur masse est suffisamment faible. Avec les premières données du LHC, des masses inférieures de l’ordre de 1 000 GeV sont exclues (∼ 1 500 GeV dans des modèles simplifiés).

La particule supersymétrique la plus légère, à savoir dans de très nombreux cas le neutralino le plus léger, possède toutes les propriétés pour être un candidat à la matière noire qui constitue de l’ordre de 23 % du contenu matière/énergie de notre univers.

2. Autres modèles

Plusieurs modèles non supersymétriques prédisent la production d’octets de couleur scalaires, comme par exemple de type vector-like quarks. Ces particules hypothétiques ne reçoivent pas leurs masses à travers un couplage de type Yukawa et sont donc encore compatibles avec les données expérimentales après la découverte du boson de Higgs. Les analyses actuelles ont déjà exclu les masses en dessous 600/800 GeV. En revanche, pour les modèles impliquant des quarks de type 4e génération, ils sont totalement exclus par les mesures récentes de section efficaces de production du boson de Higgs.

3. Perspectives de recherche

En ce qui concerne les recherches de nouvelle physique, l’énergie dans le centre de masse est le paramètre essentiel, beaucoup plus que la luminosité. Les limites « naturelles » d’exclusion (ou de découverte) devraient être atteintes assez rapidement après l’augmentation en énergie de 8 TeV à ∼ 14 TeV en 2015. Il est essentiel de soutenir les liens déjà étroits entre la communauté des expérimentateurs du LHC et les communautés des théoriciens, tout en renforçant les liens avec les physiciens travaillant à la détection de la matière noire.

Par essence les découvertes de nouveautés sont imprévisibles et apparaissent souvent comme des surprises inattendues. L’un des enjeux pour les équipes du CNRS réside dans la préparation des analyses pour le prochain run du LHC à 14 TeV, ainsi que dans leur réactivité et leurs capacités d’adaptation face à la découverte de nouvelle physique qui provoquerait dans la communauté une mobilisation des forces sans précédent.

IV. Astroparticules et cosmologie

Le domaine des astroparticules et cosmologie est à la croisée de l’astrophysique, de la cosmologie et de la physique des particules. C’est un domaine de recherche émergeant qui se nourrit du mélange de méthodes et concepts issus de communautés différentes. Il recouvre l’étude de l’Univers violent, des systèmes astrophysiques qui sont le siège d’interactions dans des conditions extrêmes, ainsi que la naissance de notre Univers, son contenu et son évolution.

Des questions essentielles sont aujourd’hui posées, par exemple sur la nature de la matière noire et de l’énergie noire, sur la formation de grandes structures, sur l’asymétrie matière/antimatière, sur les propriétés des neutrinos, sur la description des premiers instants de l’Univers, sur la compréhension du rayonnement cosmique sur une gamme en énergie extrêmement large, etc. Dans ce contexte, le rayonnement électromagnétique de haute énergie, les rayons cosmiques chargés, les neutrinos cosmiques et cosmogéniques, les ondes gravitationnelles et le rayonnement diffus issu des premiers instants de l’Univers peuvent être, selon le cas, objets d’étude et/ou outils d’investigation.

La communauté française a joué un rôle important dans le développement du domaine depuis une vingtaine d’années. Elle est aujourd’hui organisée autour d’un programme expérimental diversifié et ambitieux où elle joue souvent un rôle très visible malgré des contraintes budgétaires importantes.

Nous reprenons ci-dessous une liste de thèmes scientifiques qui correspondent dans les grands traits à la manière dont la communauté est structurée.

A. Astronomie gamma

L’étude des rayonnements électromagnétiques de haute énergie constitue une sonde de l’Univers violent et permet l’étude de phénomènes physiques dans des conditions extrêmes. La France, qui a joué un rôle de premier plan dans le développement des techniques expérimentales, est impliquée aujourd’hui dans deux expériences majeures et complémentaires couvrant plus de six ordres de grandeurs en énergie entre 30 MeV et plusieurs dizaines de TeV.

Au-dessous de quelques centaines de GeV, l’instrument LAT à bord du satellite Fermi, avec son grand champ de vue associé à une stratégie de pointé originale, observe le ciel entier. Après 5 ans de fonctionnement, il a détecté plus de 3 000 sources, permettant de multiples études de populations et de sources individuelles plus détaillées. En plus d’avoir joué un rôle important dans la construction, la caractérisation et l’optimisation des performances de l’instrument, les équipes françaises contribuent activement aux principaux thèmes scientifiques de la mission et jouent un rôle remarquable dans la production de résultats. Parmi les résultats marquants citons : la découverte de plusieurs restes de supernovae (SNR) en interaction avec leur environnement immédiat et dont la signature spectrale laisse peu de doute quant à la production et l’accélération de rayons cosmiques en leur sein ; la découverte de plus d’une centaine de pulsars émetteurs gamma, dont 1/3 non encore détectés à d’autres longueurs d’ondes et 1/3 de pulsars dits « millisecondes » ; la détection et la caractérisation de plusieurs dizaines de sursauts gamma, dont certains ont permis de poser des limites très contraignantes sur une possible violation de l’invariance de Lorentz ; ainsi que des résultats sur la détermination du fond diffus infrarouge par l’étude de la population de blazars émetteurs gamma, dans une gamme en longueur d’onde complémentaire à celle des détecteurs Tcherenkov au sol, sur la détermination de fonds diffus gamma, etc. Cette expérience devrait se prolonger jusqu’en 2018.

À plus haute énergie, la première phase de l’expérience H.E.S.S., formée de quatre télescopes à effet Tcherenkov installés sur le sol Namibien, prend des données à pleine sensibilité depuis une dizaine d’années. Elle a constitué un catalogue d’une centaine d’accélérateurs cosmiques capables d’émettre au-delà de la centaine de GeV, remarquables par leur diversité : des sources galactiques, telles des nébuleuses de pulsars, des SNR jeunes, des SNR âgés en interaction avec le milieu interstellaire, des systèmes binaires, la région du centre galactique et en particulier l’émission diffuse des 100 parsecs centraux ; ainsi que des sources extragalactiques, en particulier radiogalaxies et blazars, ces derniers ayant permis pour la première fois une mesure de la densité du fond diffus infrarouge dans la gamme en longueur d’ondes entre 0.3 et 17 microns. Au-delà d’un travail actuellement en cours pour mettre à niveau les quatre premiers télescopes, l’ajout récent d’un cinquième télescope doté d’un miroir six fois plus vaste (phase H.E.S.S. II) a permis d’augmenter la sensibilité de l’instrument et d’en diminuer le seuil en énergie. H.E.S.S. II donne ainsi accès à la gamme 20 – 100 GeV, très importante mais encore peu couverte, avec des performances meilleures que celles de Fermi-LAT, en particulier pour ce qui concerne les sources variables ou transitoires comme les noyaux actifs de galaxies à grand redshift ou les pulsars. La collaboration poursuit ainsi l’exploration du ciel gamma en attendant l’avènement vers 2020 du projet CTA (Cherenkov Telescope Array).

Le consortium CTA, qui rassemble les différentes communautés d’astronomie gamma au niveau mondial, se propose de construire d’ici la fin de la décennie un observatoire d’une centaine de télescopes répartis sur deux sites (un par hémisphère). L’objectif est de couvrir un domaine en énergie de 10 GeV à 100 TeV avec une sensibilité meilleure d’un ordre de grandeur par rapport aux expériences actuelles. Cette collaboration a produit en 2014 le « Technical Design Report » qui définit les caractéristiques de l’instrument, dernière étape pour la création de l’observatoire. Avec 7 laboratoires de l’IN2P3 sur une douzaine de laboratoires français impliqués dans la préparation du projet, la communauté IN2P3 est résolue à jouer un rôle important, à la mesure du rôle qu’elle a joué dans le développement de la discipline ces vingt dernières années.

B. Rayons cosmiques chargés

L’étude des rayons cosmiques chargés reste un sujet central dans le champ des astroparticules et la France est impliquée dans plusieurs expériences qui étudient de manière directe ou indirecte ce phénomène.

À basse énergie, les expériences d’astronomie gamma (voir ci-dessus) ont cumulé plusieurs résultats sur les rayons cosmiques galactiques, avec en particulier l’identification récente par Fermi-LAT des restes de supernovae comme siège de l’accélération d’au moins une partie de ces particules. Toutefois beaucoup de questions restent ouvertes sur l’origine, l’accélération et la propagation des rayons cosmiques galactiques. Ces sujets sont les thèmes principaux d’expériences comme AMS-02 (sur la Station Spatiale Internationale, l’ISS) et CREAM (sur ballon stratosphérique), qui utilisent des techniques instrumentales proches de la physique des particules pour détecter et caractériser les rayons cosmiques à proximité de la Terre. Ces expériences, dans lesquelles la France est impliquée, couvrent ensemble le domaine du MeV au PeV, et sont actuellement en phase d’analyse des données acquises ces dernières années. Le développement de grands instruments tels que CTA, ainsi que la poursuite des efforts de modélisation de l’émission provenant d’une diversité de sources galactiques et de la propagation des rayons cosmiques dans le milieu interstellaire paraissent également nécessaires.

À plus haute énergie, l’expérience Auger, avec une forte implication de l’IN2P3, fonctionne à pleine sensibilité depuis 2007. La statistique accumulée au-delà de 1018 eV est sans précédent, mais les caractéristiques du flux de ces rayons cosmiques et leur interprétation (forme spectrale, distribution des directions d’arrivée, composition) fait encore débat. Pour aller au-delà une évolution des techniques de détection paraît nécessaire, et la communauté répartit ses efforts dans trois directions. D’abord par l’amélioration du réseau actuel de l’expérience Auger, via une segmentation des cuves du détecteur de surface pour permettre une estimation du contenu en particules de la gerbe et obtenir ainsi une meilleure identification du primaire. Ensuite par la poursuite du développement de la radiodétection des mêmes gerbes, avec différents projets, en particulier le réseau AERA – le plus grand réseau de ce type au monde – aujourd’hui en cours d’acquisition sur le site d’Auger. Les données des expériences CODALEMA et AERA, ainsi qu’un important travail de modélisation et simulation du champ électrique émis par les gerbes, ont permis récemment des avancées significatives dans la compréhension des mécanismes à l’origine de ce champ électrique. Le potentiel de cette technique d’étude des rayons cosmiques reste cependant encore à confirmer. Finalement, une partie de cette communauté est impliquée depuis plusieurs années dans le projet d’imagerie UV JEM-EUSO, qui vise à étudier les gerbes atmosphériques générées par des primaires au voisinage de 1020 eV par la détection de leur lumière de fluorescence depuis l’ISS. La France s’implique sur le développement de grandes surfaces focales instrumentées hyper-sensibles dans l’UV et dédiées à une utilisation spatiale, avec ces dernières années un rôle important dans la conception et la mise en œuvre du démonstrateur EUSO-BALLOON qui a volé au cours de l’été 2014.

C. Nouveaux messagers

La communauté française mène depuis plusieurs années un effort soutenu pour permettre l’observation d’objets astrophysiques à l’aide de nouveaux messagers que sont les neutrinos et les ondes gravitationnelles. Du fait de leur faible interaction avec la matière ces messagers permettront l’observation des zones les plus denses qui ne sont pas accessibles par l’étude du spectre électromagnétique.

Après plusieurs prises de données jusqu’en 2011 le détecteur terrestre d’ondes gravitationnelles Virgo, dans lequel est impliqué l’IN2P3, est entré dans une nouvelle phase (Advanced Virgo) pour gagner jusqu’à un facteur 1000 en volume d’univers observable. La construction se terminera en 2015 et sera suivie de plusieurs prises de données à partir de 2016 et d’un travail sur l’instrument pour l’amener à sa sensibilité nominale d’ici la fin de la décennie. Les analyses des futures données seront poursuivies en commun avec les instruments Advanced LIGO. Les estimations actuelles du taux de coalescences de binaires d’astres compacts prédisent une détection très probable à la sensibilité nominale de cette génération d’instruments. KAGRA, le premier détecteur souterrain, est en cours de construction au Japon et devrait intégrer le réseau déjà formé par les collaborations LIGO et Virgo vers la fin de la décennie. La France contribue aussi au projet eLISA, observatoire spatial dédié à la détection des ondes gravitationnelles à très basses fréquences. La mission pourrait être définitivement adoptée par l’ESA avant 2020 en fonction des résultats obtenus par le démonstrateur technologique LISAPathfinder dont le lancement est prévu à la mi-2015. En cas de sélection, le lancement de eLisa est prévu en 2034.

Le télescope à neutrinos sous-marin ANTARES, initié par la France, a commencé sa prise de données en 2005 et continuera ses activités dans la perspective du futur détecteur kilométrique méditerranéen KM3NET, dont la configuration est en cours d’étude. La détection d’une émission de neutrinos en provenance des objets observés en astronomie gamma permettrait de contraindre le poids de l’émission d’origine hadronique dans le spectre de ces objets. En 2013 IceCube, d’un volume d’un kilomètre cube situé au pôle sud, a publié l’observation de plusieurs événements au PeV ayant une origine extraterrestre très probable renforçant ainsi l’intérêt dans ce type de messagers.

Afin de maximiser l’exploitation scientifique de ces nouveaux vecteurs, un programme de suivi électromagnétique a été mis en place par les collaborations Virgo et ANTARES avec l’envoi d’alertes par des analyses rapides vers un réseau d’observatoires partenaires.

D. Matière noire

L’hypothèse que la matière noire soit une nouvelle particule stable, massive et n’ayant des interactions que de type faible (WIMP) est très attractive. Elle motive un effort expérimental intense sur plusieurs fronts : la recherche d’une telle particule au LHC, l’observation des produits de ses annihilations dans les rayons cosmiques (recherche dite indirecte), ou celle des reculs nucléaires dus aux collisions de WIMPs sur des détecteurs cibles sur Terre (recherche directe). Les recherches indirectes font partie des programmes d’un grand nombre d’observatoires d’astroparticules existants et déjà cités (AMS, H.E.S.S., ANTARES, etc.), les plus sensibles à l’heure actuelle étant Fermi-LAT et IceCube.

Jusqu’en 2010, les détecteurs de recherche directe les plus sensibles étaient les bolomètres germanium (expériences CDMS et EDELWEISS), pour ensuite être devancés par les détecteurs Xénon bi-phase de grande masse (XENON et LUX). Aucun signal n’a pu encore être confirmé dans deux cibles indépendantes, et les programmes expérimentaux d’augmentation de sensibilité se poursuivent

Les équipes françaises qui impulsent le programme EDELWEISS ont développé depuis 2010 une technique de rejet d’événements de surface qui s’est avérée suffisamment puissante pour motiver la construction d’un ensemble de détecteurs ayant une masse fiducielle de plus de 30 kg. Cet ensemble, installé en 2014 au laboratoire souterrain de Modane, devrait atteindre d’ici 2016 la sensibilité des expériences Xénon actuelles. Cette étape permettrait d’envisager un ensemble plus massif, à l’intérieur d’une collaboration européenne plus large (EURECA) et en lien avec le programme américain SuperCDMS.

Un laboratoire français a rejoint la collaboration XENON en 2009. Il a participé aux analyses des données ayant abouti en 2011 et 2012 aux limites les plus sensibles sur les interactions des WIMPs indépendantes du spin. Il a également d’importantes responsabilités quant aux techniques de stockage et de récupération du Xénon pour la prochaine phase de l’expérience XENON-1tonne, qui démarrera ses prises de données au LNGS en 2016. L’objectif est une amélioration de la sensibilité d’un facteur 100, dépassant ainsi de loin les limites publiées par LUX en 2013, et préparant le futur programme DARWIN.

D’autres développements à plus long terme visent à reconstruire la cinématique de l’interaction WIMP-noyau par l’utilisation de TPC, comme le projet MIMAC en France.

E. Cosmologie

Des avancées spectaculaires dans notre compréhension du contenu de l’Univers et de son évolution depuis les tout premiers temps ont été réalisées grâce à la systématisation d’observations précises à très grandes échelles, auxquelles les physiciens français ont contribué de par leur expertise dans les grands projets expérimentaux. Il a été ainsi possible de confirmer qu’une part importante de notre Univers se retrouve sous la forme d’énergie noire et de matière noire dont l’origine reste encore à découvrir.

Différentes sondes cosmologiques sont aujourd’hui exploitées avec une participation importante de l’institut : l’observation du fond diffus cosmologique, l’utilisation des supernovae pour mesurer la vitesse d’expansion de l’Univers, et les relevés à grande échelle des grandes structures.

1. Fond diffus cosmologique

Le satellite Planck, mission de l’ESA, a été lancé en mai 2009 et a observé le fond diffus cosmologique (en température et polarisation) jusqu’en février 2012. Les équipes de l’IN2P3 associées au projet depuis son origine ont ainsi participé à l’émergence de la communauté française travaillant dans le CMB. Elles ont travaillé sur l’instrument de haute fréquence (HFI), avec une contribution instrumentale importante et une très forte implication dans le traitement de données. Les premiers résultats ont été publiés en 2011 et 2013. Les cartes en température du ciel d’une précision inégalée dans 9 bandes de fréquences entre 30 GHz et 857 GHz permettent d’obtenir des contraintes très fortes sur les paramètres du modèle standard de la cosmologie (Lambda-CDM) qui est spectaculairement confirmé, même si de petites anomalies sont observées aux grandes échelles angulaires. Les résultats de Planck sur la mesure de la polarisation du CMB seront publiés à l’automne 2014. S’ils sont très attendus au regard de l’annonce récente de la possible détection du mode B de polarisation à grande échelle angulaire, ils n’en diront pas le dernier mot. Les expériences actuelles et futures de mesure de la polarisation, spatiales ou bien au sol, comme le projet d’interféromètre bolométrique QUBIC, prendront le relais de Planck, pour contraindre les théories d’Univers primordial tels que les modèles d’inflation.

2. Énergie noire

Les supernovae de type Ia sont à ce jour une sonde incontournable pour l’étude de l’énergie noire : la France joue un rôle majeur dans deux programmes, Supernova Factory (SNF) et le SuperNova Legacy Survey (SNLS). La collaboration Supernova Factory, qui a construit et exploite les données du spectrographe intégral de champ SNIFS, travaille à la compréhension fine de l’objet astrophysique supernova et la prise en compte de biais associés dans les études de cosmologie. L’exploitation des données du SNLS au télescope Canada-France-Hawaï a permis entre autres d’obtenir une mesure du paramètre w de l’équation d’état de l’énergie noire à mieux que 6 % incluant les erreurs systématiques.

Les oscillations acoustiques de baryons (BAO), sont aussi exploitées avec succès dans le cadre d’une participation au projet SDSS-BOSS et une implication dans les projets futurs, par exemple en radio.

Le futur télescope grand champ au sol LSST (Large Synoptic Survey Telescope, à l’horizon 2020) permettra d’étudier la matière noire et l’énergie noire dans une approche multi-sonde. La communauté IN2P3 est très impliquée dans la construction du LSST, qui a commencé officiellement en 2014 et dont elle est la seule contributrice hors E.U., ainsi que dans le futur traitement des données à très haute statistique. La France participe aussi à la mission spatiale EUCLID, sélectionnée par l’ESA en 2011 (lancement en 2020), scientifiquement, techniquement – principalement sur les détecteurs infrarouges de l’instrument NISP – et au traitement des données, dont le CC-IN2P3 sera le centre français.

V. R&D accélérateurs et instrumentation

Les programmes scientifiques menés à l’IN2P3 en physique nucléaire, en physique des particules, en astroparticules et en cosmologie ainsi que dans des domaines émergents comme ceux liés à la santé, nécessitent des instruments spécifiques qui ne peuvent être développés qu’au sein même des laboratoires.

A. Détecteurs

Une effervescence d’activités de R&D autour des détecteurs a permis, ces dernières années, aux laboratoires français de jouer un rôle de leadership dans de nombreux projets internationaux. C’est notamment le cas en physique des particules avec le développement de détecteurs à pixels pour la jouvence de LHC au CERN et les développements de calorimètres ultra-granulaires pour les futurs collisionneurs linéaires. Il en est de même en cosmologie avec des détecteurs de plus en plus précis comme ceux développés pour la détection des ondes gravitationnelles dans Advanced Virgo et pour l’étude de l’énergie noire dans l’Univers avec LSST et EUCLID. Dans le domaine des astroparticules et du neutrino, des progrès importants ont été réalisés dans le développement et la construction des détecteurs de plus grande masse afin d’atteindre des sensibilités jamais obtenues auparavant comme en attestent les activités menées au sein d’Edelweiss, SuperNemo et LBNO. En physique nucléaire, les activités instrumentales, surtout autour des détecteurs gazeux et des détecteurs tels que AGATA et PARIS utilisant de nouveaux cristaux pour la détection des γ, ont connu un grand élan dans le cadre de la préparation du futur projet de SPIRAL2. Un autre secteur qui témoigne d’un dynamisme remarquable est celui des applications médicales liées aux détecteurs développés dans le cadre des thérapies du cancer en utilisant des faisceaux de protons et d’ions lourds.

Dans tous ces domaines, les performances attendues des détecteurs sont de plus en plus contraintes en termes de granularité, sensibilité, dynamique, résolution, vitesse, tolérance aux radiations, intégration et transparence. Pour faire face à tous ces défis, un nombre important de métiers et compétences sont mobilisés. L’hyperspécialisation des métiers et le contexte actuel des ressources ont conduit à rationaliser ces R&D en amont, en favorisant l’émergence de réseaux d’experts autour des principales familles de détecteurs et de techniques transverses associées. Huit réseaux instrumentaux ont été mis en place : photodétection, détecteurs semi-conducteurs, gazeux, cryogéniques ou radiofréquence, acquisition de données, microélectronique et mécanique. Cette organisation en réseau permet d’identifier les technologies émergentes et les compétences locales, et de les soutenir. Les échanges entre experts favorisent la mise en commun des meilleures pratiques et des outils, et ainsi la rationalisation des ressources.

B. Électronique

Un autre domaine de l’instrumentation qui a une place majeure au sein de l’IN2P3 est celui de l’électronique. Celle-ci suit l’évolution des techniques de détection et essaye d’anticiper les besoins des expériences futures. Le nombre de voies, les contraintes d’intégration, les vitesses d’acquisition, etc., nécessitent une réponse spécifique à chaque problématique et donc le maintien d’un niveau d’expertise, d’une veille technologique et d’une R&D au plus haut niveau. La structure de l’institut en 21 laboratoires facilite l’organisation d’écoles, de conférences ainsi que le travail en réseau, permettant ainsi le partage d’expertises entre différents sites.

Des tendances majeures sont à noter dans le panorama des développements en matière d’électronique :

– l’émergence des détecteurs silicium petits, bon marché, à relativement basse tension d’alimentation et avec une très faible consommation, qui conduit à de nombreux projets de collaborations technologiques, en particulier dans le secteur de la santé.

– l’électronique à proximité immédiate du détecteur intègre de plus en plus de numérique dans les circuits intégrés (ASICs) ce qui redessine le contour des pratiques et des approches tant au niveau des métiers que des architectures d’acquisition.

– l’évolution des technologies de ces ASICs avec la transition du 0,35 um vers le 0,18 et le 0,13, mais aussi l’émergence des technologies 3D et de la 65 nm dessinent un vrai saut dans les performances, mais aussi dans les difficultés liées à leur conception.

– une évolution spectaculaire des performances des FPGAs intégrant processeurs (ARMs, Cortex…), bus (Ethernet. PCI-e…), transceivers (Gigabits), DSP, avec comme corollaire un haut niveau de spécialisation des ingénieurs et la nécessité d’une formation spécifique aux outils de développements complexes.

C. Accélérateurs

À l’IN2P3, une dizaine de laboratoires ont une activité liée aux accélérateurs, et environ 15 % des personnels travaillent directement dans ce domaine que ce soit pour la R&D, la construction de machines, ou bien encore l’exploitation (environ 5 % des effectifs de l’institut). Les groupes les plus importants sont à l’IPN d’Orsay, au LAL et au LPSC de Grenoble. L’avenir du domaine fait l’objet de prospectives régulières au niveau national dans le cadre des journées CNRS-IN2P3/CEA-IRFU, ce qui permet d’identifier les domaines de compétences, et d’envisager l’avenir des activités avec une vision commune.

L’IN2P3 consacre des efforts importants à la construction d’accélérateurs avec une excellente visibilité dans le domaine des LINACs forts courants (SPIRAL2, FAIR, ESS, LINAC4), des coupleurs de puissance radiofréquence (XFEL), des sources compactes de rayons X et de γ (Thom-X, ELI-NP) ou encore pour la génération de neutrons pour les réacteurs nucléaires pilotés par accélérateurs (MYRRHA). Ces conceptions et réalisations témoignent du savoir-faire des équipes françaises, et de leur capacité à se fédérer pour concevoir et réaliser des accélérateurs complexes. Les constructions permettent de valoriser les activités de R&D menées par les laboratoires. Il est important de veiller à un bon équilibre entre ces deux types d’activités qui sont complémentaires, ceci doit permettre à l’IN2P3 de jouer un rôle important dans la construction des machines du futur.

Les domaines où l’apport des laboratoires de l’IN2P3 a un fort impact au niveau international sont la conception, la réalisation et la mise en œuvre des cavités RF supraconductrices, de leurs coupleurs et de la cryogénie associée ; de même, l’IN2P3 a un savoir-faire reconnu dans le développement des sources d’ions, d’électrons et de positrons, et dans les études de dynamique faisceau. La production de faisceaux radioactifs est une spécialité qui s’est développée autour des installations SPIRAL et ALTO ainsi que lors de la conception de SPIRAL2-phase 2. La production de neutrons pour les réacteurs nucléaires a conforté son développement lors de la réalisation et de l’exploitation de l’accélérateur de GUINEVERE par le LPSC.

Le domaine le plus prospectif, mais qui se développe rapidement concerne les nouvelles techniques d’accélération telle que l’accélération laser-plasma.

Au-delà des techniques d’accélération, les équipes ont de solides compétences dans les diagnostics de faisceaux qui sont essentiels, que ce soit dans le domaine des faisceaux d’ions stables ou d’électrons de haute intensité, dans le domaine des faisceaux de très faibles intensités tels que les ions radioactifs, ou encore pour les faisceaux nanométriques. Les laboratoires s’appuient, pour mener à bien la R&D sur un certain nombre de plate-formes, telles que SupraTech à l’IPNO pour les cavités supraconductrices et la cryogénie ; la station coupleurs XFEL au LAL, actuellement utilisée pour le conditionnement, et qui permettra par la suite de développer des coupleurs de nouvelle technologie. Les développements d’accélérateurs sont faits en étroite collaboration avec le monde industriel, et induisent une activité de valorisation, allant parfois jusqu’à la création de startups. On peut citer pour exemple PANTECHNIK ou, plus récemment, Polygon Physics, issues de la R&D sur les sources d’ions. Un certain nombre d’installations dans les laboratoires sont directement en prise avec le monde économique et social, elles permettent par exemple la caractérisation des matériaux, la production de radio-isotopes, l’étude de l’impact des rayonnements ionisants sur le vivant, la résistance des circuits électroniques en milieu hostile, mais aussi les études sur le traitement des tumeurs ainsi que le développement d’incinérateurs de déchets nucléaires.

VI. Énergie nucléaire

La France, avec ses 80 % d’énergie électrique d’origine nucléaire, reste une exception dans le monde. Conformément aux lois Bataille (1991 et 2006), le rapport rendu au gouvernement fin 2012 par le CEA, en collaboration avec le CNRS, l’IRSN et les industriels, traite des systèmes nucléaires et du cycle du combustible (amont et aval) et donne les orientations prioritaires pour « la gestion durable des matières nucléaires ». Dans ce cadre, les récents accidents nucléaires japonais ont ébranlé l’industrie nucléaire. Cette dernière a dû prendre des mesures de grande ampleur, la sûreté étant plus que jamais la priorité pour l’ensemble des activités touchant au nucléaire civil.

Pour répondre à ces priorités, le CNRS est un acteur majeur du programme interdisciplinaire Nucléaire, Énergie, Environnement, Déchets, Société (NEEDS). Les axes de recherches portés par les physiciens de l’IN2P3 se situent dans les systèmes nucléaires et leur déploiement. Les réacteurs de 4e génération envisagés sont des réacteurs à neutrons rapides : réacteurs rapides refroidis au sodium (RNR-Na), réacteurs rapides à sels fondus (MSFR), réacteurs pilotés par accélérateur (ADS). Dans ce contexte, le démonstrateur ASTRID (RNR-Na) porté en grande partie par le CEA devrait être opérationnel à l’horizon 2030. Comme les bases de données nucléaires concernant les spectres neutroniques rapides sont incomplètes, les mesures de sections efficaces et de production de particules (n,xn ; fission…) auprès d’installations nucléaires (IRMN, SPIRALII/NFS, Licorne, GSI, CERN nTOF, ILL) sont indispensables pour renseigner les bibliothèques de données afin de simuler avec des incertitudes de plus en plus réduites les paramètres de fonctionnement des cœurs nucléaires. Ces mesures permettent également d’améliorer la précision des inventaires des combustibles usés afin d’en optimiser leur gestion.

Concernant la gestion des déchets, les efforts concernant les ADS, dans un cadre européen (projets FP6 et FP7 GUINEVERE, FREYA, MAX), à la fois en physique expérimentale des réacteurs sous-critiques et en physique des accélérateurs de haute intensité, devraient voir leur aboutissement à la fin de la décennie dans la construction du démonstrateur MYRRHA (Multi-purpose HYbrid Research Reactor for High-tech Applications). Parallèlement, des équipes du CNRS (INC) travaillent sur la séparation des actinides en vue de leur transmutation ou de leur stockage. Pour les systèmes de génération IV, les MSFR, réacteurs très innovants quant à la gestion du combustible (cycle Th/U avec du combustible liquide), constituent un des axes de développement à long terme dont le CNRS est leader en Europe (projet EVOL).

Pour la stratégie globale de renouvellement, d’extension ou d’arrêt du parc électronucléaire, des équipes de l’IN2P3 travaillent, indépendamment des industriels, sur ces scénarios énergétiques (développement des codes de calcul MURE, CLASS…) de déploiement, de développement ou d’arrêt de filières en prenant en compte les ressources en matières premières ainsi que les impacts sociétaux et économiques.

VII. Nucléaire et santé

Le CNRS est fortement engagé dans l’effort national et européen de lutte contre le cancer. Cet effort implique l’IN2P3 à tous les niveaux d’expertise qui constituent son cœur de métier : interactions primaires et secondaires des particules chargées et des photons avec la matière nucléaire ou dense, organique ou biologique ; développement de grands instruments ; instrumentation pour la détection et le traitement des données analogiques et numériques ; moyens de calcul pour la simulation. Parmi les activités liées aux interactions rayonnements-matière, l’IN2P3 est reconnu dans les domaines de la production et de la conduite des faisceaux (accélérateurs linéaires, cyclotrons, synchrotrons), de leur contrôle qualité, ainsi qu’en dosimétrie in situ (chambres d’ionisation, semi-conducteurs, détecteurs luminescents). Les compétences de l’institut en détection et instrumentation sont mises à profit en imagerie du petit animal, ainsi qu’en imagerie clinique, anatomique ou fonctionnelle. Par ailleurs, on note le développement d’activités prometteuses en matière de mini et micro-faisceaux pour la radiobiologie et les irradiations localisées, de mini-sondes pour diagnostics et de systèmes pour la dosimétrie en temps réel pré-clinique ou clinique. L’ensemble de ces activités bénéficie de la très grande expertise de l’IN2P3 en matière d’électronique rapide et de traitement des données. Parallèlement, l’IN2P3 a su s’ouvrir à de nouveaux domaines, notamment par ses collaborations en radiobiologie, de l’ADN à la cellule et au-delà, en radiopharmacie, pour le développement de radiotraceurs auprès des cyclotrons, le ciblage par molécules thérapeutiques ou par nanoagrégats, ainsi qu’en neurosciences. On note aussi une implication croissante dans les projets nationaux de hadronthérapie.

Les activités de calcul et de modélisation de l’IN2P3 sont centrées sur la simulation en environnement de grilles et nuage, à l’aide de la plate-forme GATE intégrant les codes Monte Carlo GEANT4 et GEANT4-DNA. Ces activités peuvent être décomposées en deux grands domaines : le premier, avec GEANT4, essentiellement instrumental, utilise les moyens de calculs à des fins de simulations géométriques de faisceaux, de détecteurs ou d’expériences, de reconstruction d’images ou de cartographie dosimétrique ; le second avec GEANT4-DNA, s’intéresse aux aspects fondamentaux du spectre de dégradation des énergies primaire et secondaire déposées dans les étapes physique (pouvoir d’arrêt), physico-chimique (radiolyse), chimique (effets permanents) et biologique (de la molécule d’ADN à la cellule).

On note également une activité croissante en matière de valorisation, par le dépôt de brevets en instrumentation et méthodologies, par les collaborations avec le monde médical ou industriel, ainsi que par la création ou l’accueil de startups de technologies innovantes à vocation médicale ou industrielle.

VIII. Enseignement

L’implication des agents de l’IN2P3 dans l’enseignement emprunte diverses voies à tous les niveaux de formation : de l’enseignement scolaire aux cycles universitaires et au-delà, dans le milieu professionnel ou à l’intention du grand public ; des actions de vulgarisation (café/bar de la science, fête de la science…) sont organisées. Cet enseignement est aussi bien dispensé par les enseignants-chercheurs et les chercheurs que par les personnels techniques, majoritairement des électroniciens, informaticiens et instrumentalistes, mais aussi mécaniciens et agents de l’administration qui accueillent, chaque année, des stagiaires de différents niveaux de formation.

Les interventions aux premiers niveaux, collèges et lycées, ont pour motivation de susciter une vocation pour les travaux de l’institut aux premiers instants de l’élaboration du projet professionnel des jeunes ; il s’avère que la trajectoire des étudiants est fortement guidée par des idées élaborées de façon précoce. Ces interventions se manifestent aux travers des stages Janus, des conférences NEPAL pour les lycées ou d’actions « main à la pâte » dans les collèges. L’enseignement dans les études supérieures par les unités de l’IN2P3 se fait essentiellement dans le cadre de leur tutelle universitaire – ce qui a comme corollaire de pénaliser les unités qui n’ont pas de cotutelle ou qui sont géographiquement ou structurellement éloignés de ces établissements aussi bien pour la communication du savoir que pour leur approvisionnement en doctorants. La participation des agents de l’IN2P3 aux enseignements, dans les universités ou les écoles, se fait majoritairement pendant le dernier cycle du cursus de l’enseignement supérieur. Cet enseignement porte aussi bien sur les aspects fondamentaux de la physique, que sur les aspects instrumentaux. Le contact direct avec ces étudiants favorise le recrutement de thésards dans les laboratoires. Néanmoins, compte tenu de la diminution observée du nombre d’étudiants dans nos thématiques un effort s’impose pour des interventions plus en amont du cursus. De plus, la mise en compétition des universités brise la synergie entre laboratoires et rend de plus en plus difficile l’émergence de filières de qualité correspondant aux besoins de l’IN2P3.

Alors que la demande de stage croît significativement depuis l’instauration du LMD, on observe globalement une diminution significative du nombre de thèses dans nos unités. On notera également que l’ouverture grandissante des masters à l’international favorise le recrutement des doctorants étrangers qui représentent une fraction pouvant atteindre le tiers des effectifs de doctorants dans certains laboratoires. La réforme du LMD, avec la mise en place des écoles doctorales dans le paysage universitaire, a également profondément modifié la mission des doctorants et des institutions partenaires. Celle des premiers a été élargie par une charge d’enseignement (le « monitorat »), les seconds accentuent leur devoir d’aide à l’insertion professionnelle et de suivi des docteurs. L’origine des financements des contrats doctoraux s’est également notablement diversifiée. Aux contrats ministériels se sont joints des contrats émanant des régions et des nouvelles structures dites d’excellence (IDEX et LABEX) réparties de façon inégale entre les tutelles ; d’autres sources proviennent des agences nationales (ANR) ou européennes (ERC, bourses Marie Curie). Enfin, les bourses de doctorat de type CIFFRE favorisent la collaboration avec les industriels. Si cette démultiplication des sources de financement a permis une recrudescence des études doctorales, elle mobilise un personnel de plus en plus conséquent.

Conclusion

De nombreuses avancées ont été concrétisées ces dernières années dans les disciplines de la physique subatomique, la plus emblématique étant sans doute la découverte du boson de Higgs. La vigueur de cette physique nécessite non seulement un flux régulier d’embauches de jeunes chercheurs et ingénieurs de haut niveau mais aussi un investissement important dans les très grands équipements en France et à l’étranger.

Annexe

Personnel IN2P3 (ETP)

Chercheurs CNRS Ens-Chercheurs et chercheurs non-CNRS ITA CNRS ITA non-CNRS Doctorants, post-doctorants et autres non-permanents Total
Structure et dynamique nucléaires 65 16 142 72 54 349
Hadrons et matière hadronique 33 8 15 2 39 97
Physique des Particules 133 35 96 5 153 422
Astroparticules et Cosmologie 100 47 123 4 146 420
R&D accélérateurs et instrumentation 15 8 144 6 46 219
Énergie Nucléaire 12 8 19 5 29 73
Nucléaire et Santé 45 30 91 10 117 293
Activités génériques (informatique, électronique…) 6 2 246 17 34 305
Enseignement 4 162 6 1 12 185

Source : Chiffres IN2P3