Composition de la Section
Philippe Faure (président de Section) ; Thibault Collin (secrétaire scientifique) ; Pierre Affaticati ; Gilbert Baillat ; Abdelhamid Benazzouz ; Laurent Bezin ; Emmanuel Bourinet ; Sylvette Chasserot ; Michael Demarque ; Étienne Herzog ; Catherine Le Moine ; Éric Lingueglia ; Nathalie Mandairon ; Isabelle Nondier ; Fatiha Nothias ; David Perrais ; Daniela Popa ; Marie-Claude Potier ; François Rassendren ; Marie-Catherine Rousselin-Tiveron.
Résumé
L’objectif des neurosciences reste toujours le même, comprendre le fonctionnement du cerveau et ses principes d’organisation. Poursuivre cet objectif nécessite de développer de nouvelles techniques d’acquisition de données, de manipulation et d’analyse. Les développements technologiques devraient amener très rapidement le domaine vers des acquisitions de données massives, multi-échelles et dynamiques qu’il faudra intégrer. Les neurosciences ont aussi un programme sur les maladies neurodégénératives ou psychiatriques. Il s’agit de comprendre et décrire les pathologies mais aussi de les traiter. Si le domaine progresse, le besoin pressant de résultats laisse parfois à penser que les espoirs fondés sur les approches de neurosciences ont été mal placés. Il est important de comprendre que ces analyses, la compréhension du système nerveux et de ses pathologies est un domaine jeune face à la complexité du sujet et qu’ici le temps long est la référence.
Introduction
Les thématiques de la section 25 concernent la biologie des cellules des tissus nerveux, la mise en place des cellules neurales au sein des réseaux, jusqu’à leurs fonctions physiologiques et pathologiques. La section s’intéresse à leurs rôles dans l’intégration des signaux à la base de la perception, des comportements et de la cognition. Ce rôle est analysé dans différents modèles animaux ou expérimentaux (cellules en culture, organoïdes, moelle épinière, cerveau entier…) permettant une analyse comparée et évolutive de ces fonctions. Les champs d’expertise de la section couvrent donc les domaines de la neurobiologie cellulaire et moléculaire ainsi que de la neurophysiologie. Les approches utilisées dans ces domaines sont de facto multi-échelles et multi disciplinaires.
L’évolution des neurosciences au cours de ces dernières années a été fortement marquée sur un plan technologique par la mise au point de nouveaux outils et sur un plan théorique par l’émergence de nouveaux concepts. Depuis plusieurs décennies, on espère une neurophysiologie intégrée avec une analyse multi-échelle et dynamique du cerveau humain et une révolution liée à l’émergence des neurosciences computationnelles. Ces domaines ont certes progressé mais ces approches bloquent encore conceptuellement sur la complexité des comportements qui naissent de la dynamique des circuits mais aussi d’une immersion de l’individu dans un environnement. Il est par contre intéressant de constater que des progrès technologiques impressionnants ont très récemment émergé et permettent une interaction toujours plus fine et précise avec le système nerveux à la fois pour mesurer ou perturber son activité. Ce rapport présente quelque unes des avancées les plus pertinentes en mettant l’accent sur les perspectives qui s’ouvrent dans des domaines importants.
Enfin, la recherche en neurosciences présente certaines particularités que nous aborderons dans ce rapport. Cela concerne en particulier l’expérimentation animale. Même si cette question concerne d’autres domaines de la biologie, l’étude des comportements la rend centrale pour les neurosciences, qui doivent évoluer pour s’adapter aux préoccupations légitimes de la société dans ce domaine. Un autre aspect concerne la multidisciplinarité. Question commune à de nombreux domaines mais qui est l’essence des recherches en neurosciences. Ceci n’est pas sans conséquences sur l’organisation et la structuration de la recherche et de ses institutions.
I. L’évolution des méthodes expérimentales en Neurosciences
Les grandes étapes de la recherche sur le système nerveux ont toujours été associées aux développements technologiques. Leur nombre et leurs exploitations ont explosé ces dernières années. L’étude des structures cellulaires de taille sub-micrométrique, dont les synapses, a grandement bénéficié des avancées récentes des microscopies électronique et optique, notamment les techniques optiques non linéaires et de super-résolution, ainsi que la microscopie ultrasonore super-résolue. Les méthodes de clarification d’échantillons biologiques ont permis de suivre le trajet de voies axonales dans l’ensemble du cerveau et d’évaluer leur connectivité très précisément, quand les techniques d’expansion de tissus ont permis de repousser encore les limites de résolution de leur observation. L’analyse moléculaire telle que le séquençage d’ARNm sur cellule unique a permis de définir de manière exhaustive les types cellulaires composant un tissu nerveux. Enfin, il est désormais possible, avec un nombre croissant d’approches, d’enregistrer et de manipuler de larges ensembles de neurones sur animal vigile (électrophysiologie in vivo, opto- et chemo-génétique, nouveaux biosenseurs fluorescents permettant des études dynamiques incluant des senseurs calciques couplés à la microscopie multi-photonique). En augmentant nos capacités d’interroger le fonctionnement des systèmes, ces technologies permettent d’affiner notre compréhension des circuits nerveux. Elles orientent également le développement de futures thérapies. On notera que, pour la plupart, ces techniques se situent à la croisée des neurosciences et de la physique pour les aspects optiques, de la chimie, de l’ingénierie des protéines et de l’ingénierie et l’analyse des données. En effet pour traiter toutes ces données complexes, les progrès de l’analyse automatisée ont été également déterminants. Ceci renforce nos propos sur la nature fondamentalement pluridisciplinaire des neurosciences actuelles.
Dans ce rapport nous avons distingué des objets (synapses, organelles, organoïdes) et des champs et méthodes (électrophysiologie, comportements, interfaces cerveau-machine).
A. Neuroscience moléculaire et cellulaire
1. Structures atomiques
Les avancées récentes en cristallographie et surtout en cryo-microscopie électronique (cryo-EM, prix Nobel de chimie 2017) ont accéléré l’identification des structures tridimensionnelles de nombreuses protéines neuronales avec une résolution atomique ou quasi-atomique, dont certaines qui étaient réfractaires à la cristallisation. Cela a permis de progresser dans la compréhension du fonctionnement des canaux ioniques et des récepteurs neuronaux. La cryo-EM ouvre également la possibilité d’étudier les structures de complexes dynamiques et de grande taille. C’est le cas des complexes protéiques synaptiques, dont l’étude était jusque alors quasiment impossible. Cette technique simplifie l’étude structurale des protéines et complexes membranaires et permet de le faire dans des environnements (nanodisques, liposomes…) plus élaborés et physiologiquement plus proches des différents environnements cellulaires. La puissance de ces données structurales s’entend en particulier lorsqu’elles sont combinées avec des approches moléculaires, cellulaires et intégrées, voire de bio-ingénierie, en conditions normales ou en situation pathologique. Il est à regretter que le coût important de ces techniques, allié au relatif sous-investissement français font que seulement trois cryo-EM sont actuellement en service sur le territoire.
2. La synapse
La synapse est une unité d’organisation hautement spécialisée du système nerveux central, constituée d’un élément présynaptique (bouton axonal) et d’un élément postsynaptique (souvent une épine dendritique). Plusieurs décennies d’études électrophysiologiques, pharmacologiques et moléculaires ont démontré l’importance de la fonction synaptique, d’ailleurs remarquablement conservée dans le règne animal, et ont mis en exergue sa plasticité comme propriété universelle des circuits neuronaux.
Les avancées technologiques permettent une description de plus en plus fine de l’architecture synaptique, des acteurs moléculaires et des processus dynamiques qui gouvernent leur formation et leur fonctionnement. Une synapse typique mesurant moins de 1 μm de diamètre, la microscopie optique de fluorescence en super-résolution (MOFSR, prix Nobel de chimie 2014), a permis de déterminer cette architecture qui conditionne le fonctionnement synaptique. Les techniques de super-résolution se divisent en deux familles, qui reposent soit sur le principe de déplétion stimulée (microscopie STED), soit sur la détection successive de fluorophores individuels (microscopie PALM ou STORM). Toutes deux permettent des résolutions jusqu’à dix fois supérieures aux techniques classiques (20-50 nm). Elles sont complémentaires, avec des champs d’utilisation et des limites différentes. La microscopie STED possède la résolution temporelle de la microscopie confocale mais elle est limitée par l’intensité lumineuse nécessaire. Les techniques PALM ou STORM, plus sensibles, sont encore limitées à des échantillons fins et par la durée d’acquisition qui peut atteindre une heure pour une image de haute résolution.
La plasticité synaptique, modification des propriétés synaptiques dépendante de l’activité, est considérée comme étant le substrat subcellulaire de l’apprentissage, de la mémoire et de l’adaptation à l’environnement. Les mécanismes liant modifications cellulaires et processus d’apprentissage restent toutefois largement à explorer. Les outils disponibles pour mesurer et contrôler l’efficacité et la plasticité synaptique in vivo, dans des conditions pertinentes sur le plan comportemental, restent en effet encore limités. Le développement d’outils permettant de manipuler dans l’animal des voies de signalisation synaptiques spécifiques sont en cours. Une étape clé sera franchie lorsque la résolution spatiale et temporelle de ces outils sera suffisante pour manipuler la synapse à une échelle de temps similaire à celle de l’induction d’une plasticité.
3. Ultrastructures et organelles
Les neurones sont des cellules particulières, très compartimentalisées, projetant des prolongements axonaux ramifiés pouvant atteindre une longueur totale avoisinant le mètre et pouvant transporter des molécules sur des distances importantes. Les cellules gliales, et notamment les astrocytes, ont également une morphologie complexe comprise que très récemment grâce à la microscopie optique de super-résolution. La neurobiologie subcellulaire a connu des avancées importantes avec la mise en évidence de réactions biochimiques et d’organelles dans des compartiments inattendus. Nous pouvons citer la traduction au niveau des synapses, la sécrétion d’ARNm d’un neurone à l’autre ou la propagation de protéines repliées dans une conformation toxique, dont les mécanismes restent à élucider. Une meilleure compréhension du rôle des organelles dans la physiologie et la pathologie du neurone nécessite des analyses ultrastructurales, sur des cellules fixées ou sur des cellules vivantes, par vidéo-microscopie. Celle-ci est limitée par la rareté des plateformes équipées de microscopes permettant d’atteindre des résolutions spatiales et temporelles suffisantes pour suivre, par exemple, la libération synaptique ou le transport axonal rapide dans des compartiments de quelques dizaines de nanomètres. Des développements technologiques seront nécessaires pour visualiser ces organelles in vivo.
4. Les méthodes de clarification optique des échantillons
L’extraction d’informations structurales et moléculaires détaillées à partir de systèmes biologiques intacts est un enjeu important. Ces dernières années ont vu l’émergence de nouvelles méthodes, dites de clarification (ou transparisation), qui facilitent la manière dont on peut étudier l’organisation anatomique du cerveau, mais également d’autres tissus. L’enjeu est d’obtenir des images à haute résolution de populations cellulaires en trois dimensions, dans des tissus intacts. Le principe général est de remplacer l’eau des tissus par un milieu dont l’indice de réfraction est proche de celui des composants principaux des cellules. Cette homogénéisation permet de minimiser la diffusion de la lumière responsable de la perte de signal et de résolution en profondeur. Ces techniques peuvent être utilisées seules ou couplées à d’autres méthodes histologiques (immunohistochimie, hybridation in situ…). Si les échantillons clarifiés peuvent être imagés avec toutes les méthodes de microscopie photonique, la microscopie à feuille de lumière est la plus adaptée aux échantillons de grande taille. Ces méthodes permettent de capturer l’ensemble de l’information disponible dans un échantillon et de réaliser des analyses en 3D. De multiples molécules fluorescentes qui se lient à des composants cellulaires spécifiques sont utilisées pour coder par couleur certaines composantes permettant ainsi de développer une organisation 3D des circuits. Ces approches sont combinées avec des méthodes d’imagerie d’activité, telles que par exemple des marqueurs d’activité neuronale comme C–Fos, permettant de visualiser l’activité de populations particulières au sein d’un réseau marqué. Elles offrent accès à des informations non seulement structurales et moléculaires mais aussi dynamique essentielles pour une compréhension intégrative des systèmes nerveux.
5. Les organoïdes
Un organoïde fait référence à une structure multicellulaire reconstruite dans un système de culture tridimensionnel censée reproduire la micro-anatomie d’un organe. De nombreuses preuves de concept ont été apportées qui illustrent la capacité de former des tumoroïdes, ou des micro-intestins. Ces structures peuvent être formées à partir de cellules souches embryonnaires mais aussi de cellules reprogrammées (iPSC), ce qui ouvre la possibilité de reconstruire des cérébroïdes humains. La première preuve de concept que des organoïdes cérébraux peuvent être reconstruits in vitro a été apportée par le laboratoire de J. Knoblich et M. Lancaster en Autriche en 2013. Cette preuve de concept a été rapidement suivie par la démonstration de l’impact du virus Zika sur l’altération de l’organogénèse cérébrale humaine et objectivant l’intérêt des organoïdes pour l’étude des problématiques neuro-développementales où les modèles animaux (par exemple murins) ne sont pas pertinents. La démonstration que les organoïdes cérébraux humains, après une période de différenciation de plusieurs mois in vitro, donnent lieu à la formation de réseaux de neurones électriquement actifs vient d’être réalisée, ce qui soulève de potentiels problèmes éthiques. Au total, les travaux publiés ou en cours qui montrent l’engouement de la communauté, laissent penser que les cérébroïdes deviendront des modèles importants pour l’étude du neurodéveloppement et de la neurophysiologie humaine. La plupart des travaux récents objectivent une forte volonté de la communauté 1) de transférer la méthodologie dans les laboratoires de neurosciences, 2) d’améliorer les techniques de cultures (sérialisation, influence des conditions de culture cellulaire) et 3) d’étudier le rôle de l’environnement sur l’auto organisation des cérébroïdes (matrices extracellulaires, rôle des forces mécaniques). Les travaux en cours laissent présager la mise en œuvre rapide des techniques d’étude et d’intervention classiquement utilisées dans les modèles animaux in vivo (enregistrement électrique, imagerie, génétique…). Parmi les enjeux majeurs à mettre en avant, la faisabilité de 1) réintégrer des fonctions de vascularisation in vitro et 2) modéliser des phénomènes ayant lieu dans le cerveau adulte (neurophysiologie, neuropharmacologie et maladies neurodégénératives) dans des modèles qui restent encore immatures malgré des temps de culture très long. Ces organoïdes peuvent également répondre à une voix de plus en plus forte sur l’éthique de l’utilisation des modèles animaux.
B. Neuroscience intégrative et quantification du comportement
La question posée par les neurosciences intégratives est celle des relations entre processus nerveux et processus cognitifs ou comportements. Ce champ de recherche se situe donc à l’interface entre sciences cognitives et neurophysiologie. Ces approches développées dans des modèles animaux relient les champs traditionnellement couverts par la section 25 (neurophysiologie) et la section 26 (sciences cognitives).
Le domaine oscille en permanence entre des approches réductionnistes et des approches holistiques. Par réductionniste s’entendent des approches qui tentent de réduire des processus aussi complexes que la pensée, la motivation, la peur à des processus simples. Elles supposent que si l’on collecte suffisamment d’informations sur les différentes parties, le fonctionnement de l’ensemble pourra être reconstruit ou, qu’au moins, il s’en trouvera éclairé. Les approches holistes essayent de saisir la complexité du système nerveux et de son fonctionnement dans son ensemble. Leur argumentaire, basé sur la physique des systèmes complexes, est que 1) les processus émergeants (le comportement, les émotions…) ne peuvent être réduits en une somme de processus simples et que 2) redondance, non linéarité et dynamique font qu’un même comportement peut être produit par des circuits différents ou qu’un même circuit peut participer à différents comportements. La confrontation de ces deux types d’approches est nécessaire. Notons néanmoins que les tentations d’explication « mécanistique » et d’identification de causalités ramènent régulièrement vers des approches plutôt réductionnistes.
1. Enregistrement de l’activité de circuits
Les opérations perceptuelles, comportementales et cognitives impliquent l’action coordonnée d’importantes populations neuronales dans de multiples régions du cerveau, aussi bien dans les cortex superficiels que les structures profondes. Décrypter comment ces activités à l’échelle du cerveau entier se coordonnent dans le temps et l’espace (dynamique spatio-temporelle) est à la base de la compréhension du fonctionnement du cerveau.
Depuis les premiers enregistrements électroencéphalographiques de nombreuses techniques ont été développées. Cela va des enregistrements extracellulaires de l’activité de populations via des champs (EEG, potentiel de champ locaux…), à l’activité simultanée de neurones isolés (enregistrement des potentiels d’action), ou à l’activité de cellules uniques (juxta-cellulaire ou patch clamp in vivo). Les électrodes extracellulaires en silicone permettent d’enregistrer l’activité neurale avec une excellente résolution spatiale et temporelle (inférieure à la milliseconde), mais avec seulement quelques dizaines de neurones par tige. Si en principe aucune limite physique n’empêche d’enregistrer un très grand nombre de neurones (plusieurs milliers), un certain nombre de verrous technologiques sont à dépasser, en particulier, le type de matériel biocompatible et l’estimation des dégâts neuronaux diffus, la dissipation de la chaleur et l’électronique d’amplification/digitalisation du signal. C’est dans l’idée de franchir ce palier que se sont inscrites l’initiative américaine « Brain Activity Map » qui ambitionne de cartographier la dynamique de tous les neurones du système nerveux en parallèle du connectome (identification de toutes les connexions entre les neurones), le développement d’électrodes en silicone toujours plus miniaturisées (« neuropixels » qui peuvent offrir 960 sites d’enregistrement répartis le long de tiges de 10 mm) ainsi que des techniques de chirurgie (robot d’implantation chirurgicale Neuralink permettant l’implantation de 3000 électrodes couvrant toute la surface corticale de rongeurs). Ce domaine est pour l’instant largement dominé par les technologies « américaines », même si certains types d’électrodes spécifiques peuvent être fabriqués en France.
L’imagerie optique offre une plus grande couverture que l’électrophysiologie. Si pendant longtemps le problème était que la résolution temporelle nécessaire pour distinguer de façon fiable les potentiels d’action individuels n’était pas suffisante, de nouvelles sondes permettent d’obtenir des résolutions de l’ordre de la milli-seconde. A priori, ce type d’imagerie ne mesure toutefois pas les oscillations des potentiels de champs locaux. Les sondes les plus couramment utilisées sont les GCamP, des rapporteurs fluorescents de la concentration intracellulaire de calcium, utilisés comme « proxys » de l’activité neuronale. Le bilan photonique pour l’imagerie simultanée d’un grand nombre de neurones et la technologie pour l’imagerie à toute profondeur du cortex sans aberration délétère restent un objectif difficile à atteindre. De nouvelles sondes fluorescentes génétiquement encodées sont apparues, permettant de suivre de façon ciblée les variations de concentrations de certains messagers intra- et extra-cellulaires. Plus récemment, des rapporteurs fluorescents des concentrations extracellulaires de neurotransmetteurs et neuromodulateurs (dopamine ou acétylcholine) ont été mis au point, pour suivre les dynamiques de ces messagers aux niveaux synaptique et extra-synaptique. L’intérêt de ces nouveaux rapporteurs est d’offrir des alternatives simples à la voltamètrie ou à la microdialyse.
On voit donc bien aujourd’hui des développements permettant d’interroger les activités du système nerveux dans une variété de modalité (chimique, optique, électrique), d’échelles de temps et de sensibilité, tout en couvrant une gamme d’échelle d’organisation de plus en plus large (du nanomètre au centimètre).
2. L’optogénétique et l’analyse des circuits
Ces dernières années ont vu l’explosion de méthodes basées sur le contrôle optique de l’activité de protéines ou autres molécules biologiques. Ces outils fournissent des moyens puissants pour manipuler et interroger les fonctions cérébrales avec une invasivité relativement faible mais surtout une précision spatio-temporelle sans précédent.
L’optogénétique permet une manipulation localisée des neurones par l’intermédiaire de protéines photo-activables. L’expression de ces protéines permet de cibler des populations de neurones spécifiques (en fonction de leur anatomie ou de leur activité récente). La dynamique d’activation-inactivation autorise un contrôle précis et réversible dans le temps. La possibilité d’activer ou d’inhiber simultanément des populations spécifiques de neurones en temps réel tout en enregistrant leur activité constitue une stratégie très puissante pour disséquer le fonctionnement de circuits neuronaux, pour les perturber et pour tester les conséquences de ces perturbations sur les comportements. L’entrée en force de l’optogénétique dans le champ des neurosciences intégratives a conduit à développer des approches d’excitation et d’inhibition de l’activité de population de neurones pour définir des relations de causalité (notion de nécessité via l’inhibition et de suffisance via l’excitation) entre une activité neuronale dans un circuit et un comportement particulier. Cette approche “interventionniste de la causalité” se pose actuellement en référence pour comprendre les relations entre cerveau et comportement. Cette position dominante a tendance à réduire la nécessaire pluralité des concepts et des réflexions sur le fonctionnement des circuits. Son efficacité ne doit pas masquer le fait qu’elle n’aborde la question du fonctionnement du système nerveux central que sous l’angle particulier des microcircuits (perturbations à petite échelle sur des circuits restreints) et adopte une démarche réductionniste.
Les approches optogénétiques, basées sur l’expression d’opsines sensibles à la lumière, permettent l’excitation ou l’inhibition de l’activité de populations de neurones. Elles agissent donc au niveau des réseaux. D’autres technologies, comme l’optopharmacologie (ou photopharmacologie) permettent de rendre des biomolécules endogènes sensible à la lumière. On citera l’exemple des composés (neurotransmetteurs) cagés ou de ligands photo-activables. Les premiers sont constitués d’un groupe protecteur clivable par stimulation lumineuse, entrainant une libération rapide de molécules biologiquement actives. Les seconds sont constitués de ligands qui changent de forme sous l’effet de la lumière, permettant le contrôle rapide et réversible de canaux ioniques ou récepteurs de neurotransmetteurs. D’autres techniques génétiques et chémogénétiques permettent d’attacher un module photosensible (protéique ou chimique) sur des protéines endogènes afin d’en contrôler leur fonction. Ces approches permettent un contrôle au niveau moléculaire de voies de signalisation neuronales endogènes.
3. Interface cerveau-machine (ICM)
Connecter directement une machine à un cerveau est non seulement un enjeu scientifique et technologique, mais aussi un enjeu de santé majeur. C’est un programme avec plusieurs objectifs. Si le plus évident concerne les applications médicales, avec le développement de prothèses ou d’orthèses, dont les exosquelettes, ces interfaces sont aussi des outils importants pour la recherche. D’un point de vue conceptuel, elles contribuent à comprendre la dynamique des circuits neuronaux, leur plasticité et les relations réseaux-comportements. D’un point de vue technique, elles permettent des avancées pour améliorer les systèmes d’enregistrements et d’analyse des signaux. Les interfaces cerveaux-machines, pour leurs formes invasives, reposent sur l’implantation chronique d’électrodes dans les cortex moteurs ou pré-moteurs. Des méthodes mésoscopiques d’enregistrement de l’activité, comme les sondes sensibles au voltage sont aussi envisageables. Notons qu’il existe en France une communauté importante travaillant sur les interfaces non invasives qui utilise par exemple les EEGs comme signal neuronal. Ces électrodes permettent de collecter l’activité d’une large population de neurones. Cette activité est transformée en temps réel en signal de contrôle d’une prothèse ou de tout autre élément d’une machine (curseur sur un écran…). À cette étape de contrôle, se rajoute maintenant une étape permettant de ramener en temps réel, des informations sur l’état de la prothèse (par ex proprioceptif et tactile) ou de la machine vers le cerveau par stimulations appropriées dans des cortex sensoriels. Ces feedbacks sensoriels peuvent être implémentés par des microstimulations intracérébrales ou par des méthodes optiques comme l’optogénétique. Les systèmes agissent donc en boucles fermées. Au-delà des aspects médicaux et de rééducation, ces systèmes permettent dans des modèles animaux, d’interroger la dynamique des circuits : comment les circuits neuronaux s’adaptent aux algorithmes de décodage imposés ? Quels rôles jouent les boucles de rétroactions dans ce qu’on l’on peut appeler l’incarnation (soit le fait de considérer la prothèse comme un élément corporel propre) ? Ces questions adressent des aspects fondamentaux du fonctionnement intégré des systèmes nerveux. Ce champ est en pointe pour le développement des implants, des électrodes de nouvelles générations et des traitements en ligne des données multicellulaires recueillies. Le domaine des ICM est clairement interdisciplinaire. Il nécessite une collaboration étroite entre les neurosciences des systèmes, les neurosciences computationnelles, la neuro-robotique, l’automatique et l’ingénierie (par exemple la théorie du contrôle). Enfin, si les aspects médicaux sont assez peu représentés directement dans la section, notons qu’ils soulèvent, chez l’Homme, des questions d’ordre éthique (cf l’Homme augmenté).
4. Quantification du comportement
La mesure quantitative du comportement animal est devenue centrale en neuroscience. La valeur translationnelle des modèles animaux fait l’objet d’un débat permanent (voir section III A) et l’évolution des pratiques d’analyse des comportements est un moyen de répondre à ces critiques. Que l’objet étudié soit la structure du comportement lui-même, un moyen de révéler les mécanismes neuronaux ou génétiques sous-jacents via des manipulations (génétiques, optogénétiques…), les chercheurs s’intéressent aux descriptions du comportement quantifiables et robustes. On observe une prise en compte de plus en plus importante de la variabilité et de la diversité dans l’expression comportementale qui n’est plus considérée que comme une gêne mais une source d’informations importante. La recherche de généralisation à partir de ces variations reste un challenge risqué mais aussi très prometteur.
L’automatisation des procédures d’analyse des comportements apparait de plus en plus comme une nécessité. Cette automatisation est au départ principalement considérée comme un moyen 1) de contrecarrer les limites inhérentes à la manipulation des animaux et à la présence de l’expérimentateur, 2) d’augmenter le débit des données et 3) d’augmenter la reproductibilité. Elle permet aussi de changer les paradigmes. On peut considérer grossièrement deux approches dans l’étude des comportements. L’une met l’accent sur une expérimentation élaborée en laboratoire avec des tests spécifiques, l’autre sur l’observation détaillée sur le terrain. L’automatisation permet de lier ces deux approches et de faire des descriptions de comportement très détaillées, inspirées de l’éthologie, d’observer comment les animaux résolvent des problèmes complexes. À cette automatisation des protocoles expérimentaux s’ajoute une nécessaire analyse automatique du comportement. De nouveaux outils (camera 3D, machine vision, machine learning) permettent de capturer avec des niveaux de détails de plus en plus importants les déplacements et les trajectoires des animaux. Le détail est ici important dans toutes les analyses sur le mouvement, mais aussi pour déterminer des temps précis (contact, sniffing…) utilisés pour aligner les données électrophysiologiques. De nombreux logiciels en libre accès (DeepLabCut, LabMouseTracker…) permettent une détection fine des mouvements chez des animaux (drosophiles, C elegans, rongeurs…) isolés ou en groupe, et sur de longues périodes de temps. Un objectif, et une des difficultés de l’analyse automatique du comportement, est de catégoriser ces trajectoires afin d’obtenir une représentation utile du comportement. En segmentant ces séries chronologiques en comportements distincts, les changements dans la fréquence, la succession ou la manière dont les animaux adoptent certains comportements sont ensuite quantifiés. Cette catégorisation fait, là aussi, appel aux dernières technologies en algorithme d’apprentissage automatique et en technologie d’analyse de données massives.
C. Les données massives
La quantité de données générées grâce à l’utilisation de ces nouvelles technologies croit exponentiellement. Ces quantités de données nourrissent des idées de partage et d’interdisciplinarité, de standardisation, de traitement par la communauté ou par des algorithmes de machine-learning et enfin de simulation du cerveau humain. Parce que la technologie a révolutionné nos capacités d’enregistrement et d’analyse des activités du cerveau, il est proposé d’ores et déjà d’appliquer les méthodes développées dans les grands programmes de la physique ou du séquençage du génome et se focaliser sur l’acquisition massive et standardisée de données sur le cerveau (électrophysiologiques, imagerie, genomique…). C’est le pari des grands programmes académiques ou privés tel que le Human Brain Project en Europe, les projets « BRAIN initiative », les projets du Allen Institute ou encore les projets d’entreprise de type « Google » qui constituent actuellement de telles bases de données.
Il faut quand même constater que les données en neurosciences ont quelques spécificités. Les données électrophysiologiques, et toutes autres données dynamiques d’activité, sont très dépendantes des contextes et des cadres conceptuels dans lesquels elles ont été obtenues. Il ne faudrait donc pas que pour une raison de standardisation et de financement, la concentration des données au sein de quelques bases « globalisés » appauvrissent les contextes et cadres conceptuels. Ceci est vrai pour le type d’expérience mais aussi pour les modèles animaux utilisés. Enfin, ces grands projets sont motivés par l’acquisition de données, mais en physique ils alimentent des cadres théoriques clairement définis. Ce n’est pas encore le cas en Neuroscience et cette acquisition de données ne peut se substituer aux recherches menées au sein des grands organismes, qui sont basées sur une exploration large et non exclusive de multiples cadres théoriques.
II. De la notion d’individu à la pathologie
A. Les différences et l’émergence de la problématique de l’individu
Les progrès de la recherche dans les domaines de la régulation épigénétique, la plasticité neuronale et la dynamique des cellules souches, ou encore l’impact de l’environnement sur l’architecture des réseaux amènent à réévaluer comment génomes et environnement interagissent pour définir ce qu’est un individu ou encore expliquer les variations interindividuelles.
1. Le genre
La prise en compte de la dimension de sexe et de genre est indispensable dans les projets de neurosciences fondamentales. Ceci devient un élément d’évaluation dans les appels d’offres. En effet comprendre les multiples façons dont le dimorphisme sexuel peut modifier la physiologie cérébrale est essentiel pour élaborer des traitements bénéfiques pour tous. Cela est particulièrement vrai dans le domaine de la neuropsychiatrie étant donné que de nombreuses pathologies présentent un biais de genre dans la fréquence, la gravité ou la réponse au traitement. Une interprétation appropriée des relations entre sexe et fonctionnement du cerveau nécessitera toutefois des cadres clairs pour définir ce qui est réellement mesuré et ce que cela signifie, mais la prise de conscience accrue de l’importance de l’inclusion du facteur « sexe » dans la recherche préclinique profitera à toute la recherche en neuropsychiatrie.
2. De la variabilité interindividuelle à l’individu
Les variations dans l’expression des génomes et leurs répercussions aux niveaux moléculaires et cellulaires, les mécanismes de plasticité permettent de penser la singularité de chaque individu, c’est à dire la spécificité de chaque individu au sein d’une population homogène. Le lien entre individuation et épigénétique est à même d’apporter une explication scientifique à l’hétérogénéité des réponses comportementales observées chez des animaux modèles dont l’identité génomique ne fait aucun doute. Ainsi, l’environnement social influence l’expression des gènes de façon durable et éventuellement transmissible et apporte une empreinte claire sur l’expression de molécules à l’origine de la plasticité cellulaire. Une question sera de définir si une partie de cette variation interindividuelle est produite en réponse à un besoin adaptatif de l’individu (pour s’adapter à son environnement social un individu développe l’agressivité par exemple) ou si elle est la conséquence de processus sans lien avec une adaptation (accumulation d’effet de l’histoire individuelle qui au final font diverger les individus).
Compte tenu des thématiques de la section, nous nous intéresserons plus avant à la plasticité neuronale et à ses conséquences sur la biologie de l’animal entier. Ces phénomènes façonnent les interactions entre les individus, leurs perspectives de survie ou encore leur susceptibilité aux maladies : comprendre quels mécanismes permettent de générer deux individus distincts est donc très important. Une des conséquences est que dans le futur, il ne s’agira plus d’étudier uniquement un individu moyen considéré comme « représentatif » de la population mais de comprendre ce qui fait diverger des individus de la norme établie par la moyenne, cette divergence pouvant éventuellement les engager sur la voie d’une résilience ou d’une vulnérabilité à certaines maladies. Après avoir été quelque peu ignorée d’un point de vue expérimental, et par le truchement de la plasticité et/ou l’épigénétique, la question de la variabilité entre individus devient donc une question scientifiquement et expérimentalement traitable. Dans le champ de la santé, l’individu pris sous un angle scientifique ouvre aussi sur la problématique de la « médecine personnalisée ».
De par le pont qu’elles réalisent entre les aspects moléculaires et cellulaires d’une part et le comportement d’autre part, les neurosciences sont donc aux premières loges pour apporter des éléments de réponse à ces questions.
B. Pathologies du SNC et modèles animaux
La compréhension des mécanismes et des causes des maladies du système nerveux central (SNC), autrement dit leur étiologie, constitue un défi majeur pour les neurosciences. Les champs thématiques de la section ne couvrent pas spécifiquement l’étude des maladies chez l’homme, mais leur étiologie dans différents modèles animaux ou cellulaires. Ces études sont aujourd’hui au cœur de très nombreux projets de recherche de la section. Cette tendance `lourde’ trouve certainement son origine dans les appels à projet de type ANR, qui explicitement `visent à accroître les efforts de recherche sur certaines thématiques pour répondre aux enjeux scientifiques et sociétaux actuels’.
Les maladies neurologiques sont aujourd’hui aussi classées en fonction de mécanismes ou de substrats biologiques identifiés. Ces classifications évoluent constamment, mais il est intéressant de constater des regroupements fonctionnels qui, sans être exhaustifs, distinguent des causes génétiques, inflammatoires, vasculaires, ou encore immunitaires, à de grandes maladies du SNC. Un nombre croissant de troubles neurologiques et psychiatriques sont regroupés sous les termes génériques de synaptopathies ou encore de maladies à « prion-like ». Ces causes permettent un point d’entrée dans la pathologie et dans la modélisation. Les modèles se focalisent sur un aspect particulier (occlusion d’artères cérébrales, prise d’une drogue, modification de propriété synaptique…) pour en étudier les conséquences à différentes échelles : cellule isolée, groupe de cellules (organoïdes), modélisation de réseaux neuronaux (orientés ; systèmes microfluidiques), ou organisme entier (modèles animaux). Au-delà de ces approches, les neurosciences computationnelles, et en particulier la psychiatrie computationnelle, ont investi le champ de la psychopathologie, avec pour objectifs : 1) articuler des données obtenues à différentes échelles d’organisation, 2) intégrer un niveau de description formelle, sous forme d’opérations, des mécanismes cognitifs, et 3) déterminer les conditions d’émergence des troubles psychiatriques. L’analyse des données permet de lier des éléments précis des modèles (des paramètres libres) à des aspects mesurables du comportement et de l’activité des réseaux neuronaux, ou à des propriétés moléculaires. Ces approches computationnelles se développent en psychiatrie, mais aussi plus largement dans le cadre de l’analyse des fonctions cognitives des animaux.
Le concept de modèle animal est central dans nos pratiques de recherches. Un modèle peut se définir comme un animal modifié (une souris mutante par invalidation d’un gène particulier, par exemple), un animal présentant spontanément les symptômes d’une maladie (crises d’épilepsie, troubles du comportement social…), ou un animal chez lequel ces symptômes sont induits, par un traitement. Ces modèles permettent d’étudier un processus pathogénique ou de tester des thérapies. Les projets de recherche tendent à organiser des analyses multi-échelles des modèles les plus pertinents, incluant notamment la génomique, l’épigénomique, l’analyse des propriétés cellulaires et des circuits, la dynamique des réseaux, et les comportements. Les grands ensembles de données « omiques » qui fournissent des informations sur les risques génétiques et la physiopathologie moléculaire sont de plus en plus fréquents, ainsi que l’analyse des circuits avec des enregistrements à grande échelle de l’activité des neurones. Enfin, les analyses du comportement, qui restent le point faible de ces approches, sont de plus en plus sophistiquées et effectuées dans des conditions « semi-naturelles », où l’animal est laissé en liberté avec ses congénères. L’objectif de ces approches est de prendre en compte les composantes environnementales ou sociales dans l’émergence des maladies.
Il reste que la validité des modèles animaux dans l’approche des pathologies humaines, particulièrement psychiatriques, est fortement remise en question par les défenseurs de la cause animale. Les principaux arguments sont, d’une part, que les troubles psychiatriques complexes n’ont pas d’équivalent chez les animaux (qu’est-ce qu’une souris autiste ou dépressive ?) et, d’autre part, que 90 % des molécules efficaces chez les animaux ne le sont pas chez l’Homme. Tout le monde s’accorde à dire que nous ne pouvons pas modéliser complètement des troubles complexes neuropsychiatriques (schizophrénie, dépression…) ou neuro-développementaux chez l’animal. Il existe cependant de nombreux arguments en faveur de la conservation de comportements de base et des mécanismes neuronaux sous-jacents (circuits, types de neurones, molécules) dans le règne animal. On citera, par exemple, les circuits de peur et de sursaut qui sous-tendent le traitement des menaces dans l’environnement, ou les circuits du renforcement et de la motivation. Ces circuits, très bien conservés dans les différentes espèces, ont apporté des informations essentielles pour comprendre certaines maladies humaines telles que les troubles anxieux ou encore l’addiction. Il y a enfin un consensus sur certains critères et la caractérisation d’endophénotypes qui se sont avérés particulièrement utiles et instructifs. Les modèles animaux restent un de nos meilleurs outils pour tenter de comprendre l’étiologie des maladies et de tester des thérapies. La recherche de stratégies thérapeutiques n’est donc qu’un aspect de l’étude des modèles animaux, qui doivent bénéficier des études plus fondamentales portant sur les mécanismes physiopathologiques communs à l’animal et à l’homme.
III. Nouveaux enjeux dans la pratique des neurosciences
A. Expérimentation animale, enjeux et pratiques
L’expérimentation animale est aujourd’hui au cœur de nombreux débats et l’utilisation de modèles animaux demande à être de plus en plus encadrée, justifiée et anticipée. La pratique des neurosciences ne semble pas encore en mesure de se passer de cette expérimentation. Les méthodes substitutives qui mettent en avant une recherche sans animaux (l’approche computationnelle et des grands programmes type « blue brain project », les organoïdes…) apportent des connaissances sur les mécanismes de base. Pour expliquer les fonctions du cerveau ou comment les individus s’adaptent à leur environnement ces méthodes ne sont pas encore suffisantes. La poursuite de l’expérimentation se place donc encore pour la société dans une problématique risque/bénéfice. Au-delà des questions sur la possibilité et l’objectif d’une recherche sans expérimentation animale, la pratique actuelle de la recherche doit s’adapter, à la fois pour garantir le bien-être des animaux et pour répondre aux évolutions des techniques et analyses en neurosciences.
Les centres de recherche intègrent très souvent des animaleries qui comportent des zones d’élevage, de stabulation et d’expérimentation permettant de réaliser des études sur les modèles animaux élevés à proximité. Dans leur conception, ces animaleries sont de véritables centres d’exploration fonctionnelle proposant de multiples techniques d’investigations. L’organisation en plateforme permet de mutualiser les services et le matériel, d’optimiser l’utilisation des postes et des pièces grâce à l’utilisation de tests « standardisés ». Cette organisation facilite l’application de bonnes pratiques, tout autant éthiques que scientifiques. Elle est en revanche souvent peu adaptée aux recherches nécessitant de développer de nouvelles méthodologies ou de réaliser un suivi longitudinal des animaux sur de longues périodes, comme c’est le cas avec les nouvelles approches intégrées des bases neurales du comportement. Les études longitudinales sont compliquées par l’impossibilité de sortir et de rentrer des animaux. Il est donc, à moins de revenir à des stabulations locales dans les laboratoires, nécessaire de réserver des espaces de travail en animalerie dédiés à ce type de recherches.
Enfin, les procédures liées à la réglementation pour l’expérimentation animale (dépôt des dossiers, niveau d’expérimentation, expérimentation des étudiants…) posent problème. Cette réglementation est censée assurer de bonnes pratiques expérimentales et garantir le bien-être des animaux. Elle se traduit cependant aussi par une augmentation importante des procédures administratives avec des complexités et des incohérences qui pénalisent la recherche. La circulation entre centres de recherche des modèles animaux (souris mutantes…), très importante pour assurer des collaborations, est très difficile (problèmes sanitaires, réglementation…) et coûteuse. La protection du bien-être animale est essentielle, néanmoins la lourdeur administrative des processus d’autorisation ne semble pas corrélée avec ce besoin. Cette constatation n’est malheureusement pas spécifique à l’expérimentation animale. Ce problème s’ajoute à un ensemble de processus administratifs (gestion de projets et des financements, autorisation OGM, expérimentations…) qui laisse de manière générale de moins en moins de temps et de place à l’expérimentation dans la recherche.
B. Interdisciplinarité et neuroscience
L’interdisciplinarité fait partie intégrante du champ des neurosciences. Par interdisciplinarité on désigne le recours à des compétences développées, a priori hors du champ classique des neurosciences, pour répondre aux questions posées en neurosciences. Cette interdisciplinarité peut avoir un aspect méthodologique ; dans ce cas il s’agit d’utiliser des outils ou des méthodes classiquement utilisées, ou développées, dans d’autres disciplines (par exemple en optique, chimie, informatique…). Il peut également s’agir d’emprunter des concepts à d’autres disciplines (mathématiques ou encore sciences sociales) et dans ce cas on peut parler d’interdisciplinarités théoriques.
Les neurosciences se caratérise par le fait que ce domaine absorbe et intégre rapidement les concepts et techniques venant d’autre disciplines. La difficulté du discours est que les limites de l’interdisciplinarité restent floues et évoluent en fait très rapidement. Les neurosciences computationnelles ne forment ainsi plus nécessairement une discipline à part des neurosciences. Dans la pratique, de très nombreux scientifiques, dont le domaine d’exercice est la neurobiologie, développent des approches interdisciplinaires à l’interface avec d’autres sections de l’INSB (dont les sections 26, 28, 22 et 24) ou dans les champs de l’analyse et de la gestion de données, de la modélisation mathématique, de la physique, de la chimie, ou enfin des sciences sociales, domaines qui relevent traditionnellement d’autres instituts du CNRS (INC, INP, INSIS, SHS). En plus du recrutement direct de chercheurs ayant des profils interdisciplinaires (hors du recrutement en CID), on constate des changements d’affectations de chercheurs initialement affiliés à des sections de physique, d’optique… qui rejoignent la section 25 et viennent enrichir les profils et compétences de la communauté.
Les équipes de recherche en neuroscience, pour avancer dans leurs projets, s’appuient de plus sur des collaborations. Ceci est en partie dû au fait i) que l’ensemble des techniques nécessaires à la réalisation d’un projet est de plus en plus important, ii) que les équipes n’ont pas toujours localement les compétences et enfin iii) que l’organisation de la recherche en réseaux cofinancés (ANRs…) favorise cette tendance. Collaboration et interdisciplinarité ne sont pas synonymes, mais ces couplages entre collaborations et compétences multidisciplinaires sont extrêmement importants et assurent la vitalité du domaine ainsi qu’un assez bon recouvrement des techniques et des thématiques. Il faut cependant absolument leur associer un recrutement en neurosciences de chercheurs avec des profils multi ou interdisciplinaires et d’ingénieurs plus spécialisés pour continuer à faire évoluer le domaine. Le faible nombre de postes ouverts en neuroscience est forcément une limite à ce recrutement de profils variés.
Au-delà de ces collaborations qui se développent de manière « bottom-up », bon nombre d’organisations qui gèrent la recherche considèrent les environnements multidisciplinaires comme essentiels pour favoriser les collaborations entre chercheurs de différentes disciplines. Il peut s’agir de regrouper sur un même lieu des équipes venant de différentes disciplines (par exemple le CIRB au collège de France). De manière moins contraignante et plus facile à mettre en jeu, de nombreux programmes de recherche visent à promouvoir cette interdisciplinarité en s’appuyant sur des co-directions ou des collaborations entre des disciplines et des chercheurs d’instituts différents : chimie-bio, physique-neuro, informatique-neuro, math-neuro… Ces financements sont fréquemment de courte durée, de type « amorçage » et il est souvent difficile de soutenir dans la durée des travaux de recherche de ce type. Des recrutements spécifiques sont effectués au niveau des CID (par exemple CID 51 Modélisation, et analyse des données et des systèmes biologiques). La promotion de cette interdisciplinarité « organisée par les institutions » doit être soutenue. Cependant, ces recrutements et les contours de ces programmes interdisciplinaires doivent évoluer en permanence pour rester en pointe de l’interdisciplinarité et ne pas se faire au dépend des recrutements pluridisciplinaires au sein des neurosciences.
Enfin, au-delà de ce travail entre différentes disciplines et échanges entre chercheurs, l’ingénierie est un élément crucial de la pratique de l’interdisciplinarité. Il est très souvent nécessaire de déployer des techniques qui ne sont pas nécessairement des sujets de recherche en soi (par exemple les nouvelles techniques de machine learning, des techniques d’imageries…). Le manque cruel d’ingénieur(e)s dans les laboratoires de neurosciences limite l’application et le déploiement de méthodes spécifiques dans les équipes de neurosciences. Enfin, notons que l’absence d’ingénierie de base avec des ateliers de micro-fabrication, mettant entre autres à disposition des imprimantes 3D, des dispositifs électroniques, etc., ralentit fortement l’implémentation de ces technologies.
C. les ITAs
Les ITAs forment, au même titre que les chercheurs, une composante incontournable de la recherche. Ils permettent, au travers de l’acquisition des données, les développements techniques et la gestion des unités, l’avancée des connaissances et le bon fonctionnement des laboratoires. Ces ITAs ont vu leurs tâches augmentées du fait d’une technicité de plus en plus poussée, d’une complexification des contraintes administratives et de l’élargissement de leur champ d’action, mais aussi d’une baisse des effectifs. Le rapport de la mandature 2000-2004 indiquait déjà que « la crise de la recherche [tenait] pour une part à la crise du personnel ITA » mais depuis rien ne semble avoir évolué dans le bon sens.
La généralisation des plateformes techniques a permis d’amortir en partie la pénurie d’ITAs en mutualisant les personnels et compétences. En contrepartie, le nombre d’ITAs affectés au sein des équipes pour des travaux de routine indispensables (animalerie, instrumentation, etc.), ou pour des travaux spécialisés, a baissé drastiquement. Ces postes ont été compensés par le recours à des agents contractuels ou à des prestataires de services, avec pour résultat une baisse d’efficacité due à l’investissement sans cesse renouvelé pour la formation de ces personnels temporaires. Le non-renouvellement des postes pérennes entraîne aussi une perte massive des savoir-faire au sein des équipes et des problèmes de suivi des travaux de recherche aboutissant finalement, à plus ou moins long terme, à la disparition d’agents formés et intégrés. Cette stratégie, si elle économise de la masse salariale, ampute les moyens financiers déjà limités des unités et induit une impossibilité de planification des ressources humaines à long terme compte tenu du caractère aléatoire de ces ressources. Un effort doit rapidement être fait pour inverser cette tendance qui nuit au bon fonctionnement à long terme des structures de recherche. Enfin, la question des évolutions de carrières et des rémunérations reste un sujet d’inquiétude important.
L’internationalisation de la recherche et la gestion de contrats multi-sites au niveau européen impliquent la connaissance de lois et d’outils en constante évolution qui impose des formations particulières pour le personnel administratif. Le développement accéléré d’outils d’imagerie, de biologie moléculaire, de tri cellulaire (jusqu’à la cellule unique) et d’acquisition de données à haut débit (NGS, IRM, électrophysiologie…) ou des techniques d’analyse des données (machine learning Big data) nécessite des remises à niveau constantes. Des plans de formation clairement ciblés doivent être mis en place pour permettre une adaptation à l’évolution continue des métiers.
Conclusion
Rappelons que la recherche fondamentale en neuroscience constitue le socle de pratique de la section 25. La compréhension des mécanismes de la communication neuronale, les interactions avec les cellules gliales, la dynamique des circuits nerveux en lien avec le comportement et les processus neurophysiologiques normaux et pathologiques constituent le cœur de ses préoccupations. Le programme des neurosciences est devenu de plus en plus intégratif et, de par ses relations avec le comportement, la vie mentale, les émotions et la cognition, il sort très fréquemment du cadre restreint de la biologie et pénètre allégrement le secteur des sciences de l’homme, de l’économie et de la société. Aujourd’hui il faut bien constater que ce programme attise les curiosités, fascine, suscite des espoirs tout autant qu’il peut déclencher le rejet et des critiques quand les neurosciences se proposent d’améliorer nos performances intellectuelles, de réparer nos troubles mentaux ou encore se mêle de droit et d’éducation. Les neurosciences sont un domaine de recherche transdisciplinaire qui tient certainement une place à part en biologie. Les progrès réalisés dans le domaine sont certains et méritent d’être soutenus, non seulement par une politique de financement à la hauteur des enjeux mais aussi et surtout en ce moment par une politique de recrutement (chercheurs et ingénieurs) qui permettent de maintenir une pluridisciplinarité indispensable à son développement.
ANNEXE 1
En complément de ce rapport il est conseillé de consulter l’ouvrage « Le Cerveau en Lumière » aux éditions Odile Jacob édité à l’initiative de l’ITMO Neurosciences, Sciences Cognitives, Neurologie, Psychiatrie (Dir B. Poulain et E. Hirsh) de l’Alliance Nationale pour les Sciences de la Vie et de la Santé (AVIESAN).