Section 30 Surface continentale et interfaces

V. Méthodes et outils

A. Enjeux et verrous

Le fonctionnement des SIC se caractérise par (i) un emboîtement d'échelles d'espace (nm au km) et de temps (seconde aux millions d'années) très vastes, (ii) une hétérogénéité spatiale et temporelle complexe et (iii) des réponses aux sollicitations fortement non-linéaires. La problématique des échelles est un enjeu majeur pour l'observation et la modélisation des SIC. Cette problématique apparaît au niveau de la mesure (e.g., quel support, quelle représentativité ?), de la modélisation (e.g., un modèle mathématique établi à une échelle donnée sur des systèmes souvent « modèles » est-il encore pertinent à une autre échelle ?) et de la prise en compte des observations dans la modélisation ou la validation de modèles lorsque les échelles diffèrent entre observation et modélisation.

À cette difficulté liée à la spécificité même des systèmes étudiés, s'ajoute la problématique de la pertinence d'une variable. Celle-ci (observée ou modélisée) peut être pertinente pour une problématique donnée et pas du tout adaptée à une autre. À titre d'exemple, la pertinence des variables observées et des processus modélisés en conditions habituelles doit être remise en cause pour des conditions extrêmes.

Les modes opératoires pour l'observation et les approches de modélisation sont donc nécessairement très diversifiés.

B. Forces, état de l'art, grandes avancées

Les avancées liées aux développements métrologiques se situent principalement aux petites et grandes échelles. La connaissance des processus d'interaction eau-solides (précipitation, dissolution et altération) aux échelles nano- et micrométriques a bénéficié du développement des méthodes d'imagerie à haute résolution (e.g., synchrotron, MET et NanoSIMS) et s'est traduite par des avancées à l'interface entre la géochimie et la microbiologie. La compréhension des processus aux grandes échelles spatiales (km et au-delà) a aussi connu des percées importantes grâce à la mise en œuvre d'outils d'observation satellitaire et aéroportée, notamment au niveau du cycle de l'eau, des processus d'érosion à l'échelle des continents et de la cartographie des habitats des espèces, supportant l'explosion d'approches macro-écologiques.

La modélisation a également bénéficié du développement des moyens informatiques (capacités de calcul et de stockage). Les modèles intègrent maintenant des processus établis par les différentes disciplines interagissant sur les SIC (e.g., modèles couplés hydro-bio-géochimiques et écoulements multiphasiques). Des développements ont également été menés sur les méthodes inverses pour l'estimation des paramètres et sur les outils d'analyse de sensibilité globale afin d'établir des plans d'expérience et guider l'observation.

Les modèles numériques sont des outils privilégiés pour établir des projections de l'état du climat, des surfaces, des écosystèmes et de la biodiversité sur les siècles à venir. Ces modèles se sont diversifiés ces dernières années (e.g., modélisation couplée végétation-climat, modèles à l'échelle régionale) permettant des simulations de plus en plus performantes, à différentes échelles spatiales (de la placette au bassin versant) et temporelles (simulations transitoires et assimilation de données).

Les avancées se situent également au niveau de la mise en réseau de certains moyens d'observation, tels les réseaux H+ ou RBV. Ces réseaux ont également bénéficié d'apports financiers importants dans le cadre des appels d'offres d'excellence. Par ailleurs, les Zones-Ateliers constituent à l'échelle régionale, mais aussi nationale (via le réseau inter-ZA) et internationale (via des collaborations, notamment avec certains sites LTER), un outil majeur d'observation et d'expérimentation. Il a permis de faire avancer des questionnements disciplinaires (e.g., relations biodiversité-fonctions) mais aussi interdisciplinaires sur des milieux et dans des contextes de pression spécifiques.

C. Faiblesses

Les principales faiblesses sont rencontrées (i) au niveau des échelles spatiales intermédiaires (du dm au km) ou temporelles (de l'heure au mois) et (ii) aux interfaces entre les différents compartiments des SIC.

Les échelles intermédiaires sont celles où s'expriment très nettement les effets des hétérogénéités (milieu et paysage) et de la variabilité des forçages, ainsi que les impacts des activités anthropiques (e.g., biodiversité et pollutions). Les outils expérimentaux existent à l'échelle intermédiaire (écotrons et bassins versants), mais devraient être complétés par des dispositifs contrôlés permettant la répétition (lysimètres et mésocosmes terrestres et aquatiques au laboratoire) et l'acquisition in situ et on line des variables principales.

Si l'observation aux grandes échelles et celle aux petites échelles ont fait d'importants progrès et bénéficient de soutiens financiers substantiels, la métrologie aux échelles intermédiaires est très en retard. À titre d'exemple, la mesure de variables aussi fondamentales qu'une teneur en eau ou un potentiel rédox dans un sol reste délicate et trop souvent peu fiable. Un effort en métrologie à cette échelle est indispensable à court terme.

Curieusement, malgré le manque de données aux échelles intermédiaires, les modèles mécanistes ont fortement progressé à cette échelle. Les processus élémentaires décrits sont de plus en plus complexes, mais leur intégration dans des modèles plus représentatifs des SIC reste à faire. La modélisation écologique bute encore sur l'intégration entre bas et haut niveaux trophiques, limitant toute approche écosystémique. Il semble désormais nécessaire de monter en complexité dans l'approche de modélisation. Il faudrait tester et hiérarchiser les processus et mieux prendre en compte les liens entre la biodiversité et la biomasse, ainsi que les différentes rétroactions. La clé est la capacité de simuler la distribution spatiale et temporelle des données, ce qui demandera de s'orienter vers l'utilisation de modèles couplant la dynamique atmosphérique, océanique et biosphérique ainsi que les processus d'érosion et d'altération, sur toute la gamme d'échelles de temps (infra-annuelle au million d'années).

Par ailleurs, si la représentativité de la mesure reste un verrou pour lequel la recherche est encore à faire, il en est de même pour la représentativité et la fiabilité d'un résultat de modèle. Trop souvent, ces résultats ne sont pas associés à leurs incertitudes liées, d'une part, à la précision des paramètres mis en œuvre (mesurés ou calés) et, d'autre part, au niveau d'hétérogénéité pris en compte.

D. Propositions

Dans la situation actuelle, l'organisation des moyens d'observation est trop compliquée et peu compréhensible. Il n'est pas indispensable de définir « qui gère quoi », mais d'harmoniser les moyens d'observation et d'éviter les redondances. L'accessibilité des données n'est de loin pas assurée, bien qu'elle fasse partie des missions de la plupart des systèmes d'observation. Un système centralisé où les données seraient transmises chaque année et pour chaque site pourrait être mis en place. Le type de données à transmettre et leur format (très simple, type tableur) pourrait être précisé au moment de la contractualisation du système d'observation. Aux difficultés de mise à disposition des données, s'ajoute celle de la conservation et de la mise à disposition des échantillons sur le modèle des carottes ODP. C'est une question ouverte qui doit être abordée au niveau interorganismes tant les moyens à mettre en œuvre sont importants.

Pour la métrologie et les moyens analytiques, la communauté souffre de la disparition des moyens mi-lourds. L'achat de ce type d'équipement (neuf ou en remplacement) ne se fait plus que par cofinancement. Cette procédure est lourde et entraîne des retards, voire des abandons, dans l'achat de ces équipements pourtant indispensables.

Quant aux aspects méthodes et modèles, l'organisation de cette activité au niveau national est inexistante. Il est important de réfléchir à la mise en place d'un réseau « M&M » (méthodes et modèles) pour assurer le partage des informations et la mise en place d'une banque de codes source et de tests (benchmarking).

Enfin, au niveau des axes de recherches, quelques pistes nouvelles mériteraient d'être explorées, notamment (i) l'utilisation de modèles établis en situation normale pour la simulation d'événements extrêmes et (ii) les méthodes d'observation et de modélisation des couplages et rétroactions lorsqu'ils ont lieu à différentes échelles.