Section 27 Relations hôte-pathogène, immunologie, inflammation

VI. Développements technologiques & instrumentation

A. Modèles d'études

1. Modèles in vitro et in vivo

Ces dernières années ont été marquées par le développement de nombreux systèmes expérimentaux modèles qui permettent de se rapprocher des situations physiologiques ou pathologiques, comme par exemple des modèles de tissus ou de co-cultures en trois dimensions. En particulier, les tranches de foie perfusées ouvrent des perspectives intéressantes pour étudier les premières étapes de l'infection par les pathogènes « hépatotrophes » comme les virus de l'hépatite (A, B, C et E) ou l'agent du paludisme, P. falciparum, qui sont totalement méconnues. Ce développement est très important dans un contexte de réduction de l'utilisation des animaux pour l'expérimentation.

De plus, les modèles animaux évoluent aussi. Des modèles de greffes de tissus humains, d'humanisation partielle ou complète du système immunitaire des souris ont été mis en place récemment et vont devenir des modèles standard pour l'étude de nombreux pathogènes notamment ceux qui sont strictement restreints à l'Homme comme Neisseria meningitidis ou Streptococcus pyogenes. Ces modèles présentent l'avantage considérable de s'affranchir des différences entre systèmes immunitaires murins et humains chez des animaux dont la manipulation est plus aisée que les primates non humains. Par ailleurs, d'autres modèles animaux ont commencé à être de plus en plus utilisés, comme le Danio zébré (« zebrafish »). Ce petit poisson présente de multiples avantages comme d'avoir un système immunitaire qui est proche du système humain, et d'avoir des stades larvaires transparents, ce qui permet des études in vivo du développement du système immunitaire, de la mise en place des infections et des réponses immunitaires.

2. Manipulation et outils

Une avancée majeure très récente a été obtenue par la diffusion de l'approche CRISPR/Cas9, héritée des mécanismes procaryotes de défense contre des virus (bactériophages). Cette méthode aboutit à la cassure ciblée des génomes et permet de faire de l'édition de gènes : délétion (« knock-out ») ou modification (« knock-in »). Cette approche va sans doute prendre une place grandissante pour étudier les fonctions de protéines en abolissant totalement et donc plus efficacement leur expression, que par l'approche d'ARN interférence. Des cribles à haut débit tirant profit de cette nouvelle approche vont se généraliser pour identifier les gènes importants pour des fonctions cellulaires données. Par ailleurs, cette approche permet de remplacer les gènes par des régions codantes mutées ou fusionnées à des séquences codant pour des protéines fluorescentes, pour obtenir des niveaux d'expression des protéines exogènes identiques aux protéines endogènes, et avec les mêmes régulations géniques. À noter que cette technologie s'appliquera à la fois au niveau cellulaire (lignées de mammifères, parasites) et au niveau de l'animal.

Près de quarante ans après le développement des anticorps monoclonaux, et près de vingt ans après la diffusion des anticorps recombinants dérivés de phages, ces dernières années ont vu des regains d'intérêt et surtout l'augmentation des applications des anticorps pour des tests de détection de biomarqueurs ou des injections thérapeutiques. Pour les applications thérapeutiques, les anticorps sont issus d'immunisations de lama ou autres camélidés n'ayant qu'une chaîne de haute affinité, issus de sélections de banques synthétiques, et humanisés pour éviter les réactions immunitaires suite à des injections répétées. De nombreuses recherches sont orientées vers la détection de cibles potentielles de tels anticorps sur des cellules modifiées ou tumorales, et la compréhension de leur mode d'action (mécanisme de mort cellulaire, blocage des ligands).

B. Instrumentation et méthodes d'analyse

1. Microscopie

Les approches de microscopie ont toujours été un levier des découvertes en biologie. Ces dernières années se sont développées des méthodes qui permettent d'augmenter la résolution de la microscopie photonique, et donc de visualiser avec plus de détail des localisations subcellulaires de protéines ou de microorganismes, de combiner des approches de mesures de force ou des méthodes de transfert d'énergie qui permettent de donner des informations sur les interactions fonctionnelles entre des structures intracellulaires. En cela, la microscopie a évolué au-delà d'une approche d'observation pure pour s'approcher et se combiner à des approches de biochimie. Par ailleurs, la microscopie intravitale, qui permet de visualiser les événements dans des tissus ou organismes vivants, est devenue courante depuis quelques années pour étudier in vivo les interactions entre les organismes pathogènes et leurs hôtes ou les réactions immunitaires.

2. Les approches « omiques »

Depuis le projet de séquençage du génome humain initié dans les années 90, nous assistons à une véritable révolution scientifique. Le développement et l'usage de nouvelles technologies « omiques » permettent aujourd'hui de générer des quantités énormes de données (« big data ») à des niveaux biologiques multiples (génomique, épigénétique, transcriptomique, protéomique, métabolomique, etc.). De fait, « la production et l'analyse de données massives » sont considérées comme étant « l'élément de rupture le plus déterminant » pour la définition d'une stratégie de recherche dans le rapport de l'atelier no 4 (Santé et bien-être) de la stratégie nationale de la recherche. Ce nouveau modèle de recherche ne peut pas se substituer et ne doit pas remettre en cause l'expérimentation classique basée sur des hypothèses précises mais ouvre la voie à de nouveaux champs d'applications et d'investigations. Comme évoqué à plusieurs reprises dans ce document, le potentiel des approches « omiques » pose toutefois un défi majeur, notamment pour la collecte, le contrôle de qualité et le traitement de ces données massives qui nécessitent de nouvelles compétences professionnelles. Il est clair que l'essor de cette biologie moderne ne se fera pas sans le recrutement de bio-informaticiens capables de gérer ces big data et d'en extraire des connaissances pertinentes sous peine de ne pas exploiter les données issues de ces approches coûteuses (« high throughput, little output »). Cette dualité nécessitera sans doute le recrutement de personnels au profil nouveau, à cheval sur plusieurs domaines scientifiques et dont l'évaluation est aujourd'hui rendue difficile par le relatif cloisonnement des sections du CNRS.