nom_organisme nom_organisme nom_organisme nom_organisme

Faits marquants 2021

09 juillet 2021
Cette courte vidéo présente la succession des manipulations réalisées par le groupe de dendro-isotopie du LSCE (équipe GEOTRAC) pour déterminer la composition isotopique de la cellulose des cernes des arbres.
Réalisateur : Edouard Régnier

01 juillet 2021

Le projet d'équipement "RIOCAS" (Rapport isotopique de l’oxygène, du carbone, de l’azote et du soufre dans le bois et autres composés organiques végétaux) est soutenu par le Domaine d'Intérêt Majeur "Matériaux Anciens et Patrimoniaux" (DIM-MAP) de la région Ile de France au titre de l'appel à projets 2021.

L’objectif du projet RIOCAS est d’accroître les capacités et les performances analytiques de la dendro-isotopie en Île-de-France. Il consiste en l’acquisition d’un spectromètre de masse de rapport isotopique (IRMS) couplé à un analyseur élémentaire Haute température (TC/EA) pour analyser la composition isotopique de l’oxygène, du carbone, de l’azote et du soufre (δ18O, δ13C, δ15N et δ34S) dans la cellulose, le bois et d’autres matières organiques végétales.
Les partenaires du projet, issus de 7 laboratoires de recherche franciliens et d’un bureau d’études, prévoient d’utiliser le TC/EA – IRMS dans plusieurs chantiers d’envergure. Entre autres projets, ils envisagent de réaliser une reconstitution dendro-isotopique du climat médiéval en Ile-de-France et d’évaluer le potentiel de la dendro- anthracologie en paléoclimatologie, à partir des bois calcinés de Notre-Dame de Paris. Ils mettront également à profit les gains de productivité et de fiabilité offerts par ce nouvel équipement, pour explorer le potentiel de l’approche isotopique en paléobotanique et palynologie. Les bases de données qui en découleront, seront ouvertes à la communauté scientifique pour des applications pluridisciplinaires. Enfin, ce nouvel équipement permettra des développements novateurs ouvrant vers de nouvelles thématiques dans le domaine environnemental.

Ce projet résulte d'un partenariat entre les laboratoires AASPE, ArchAm, ArScAn, CR2P, HNHP et METIS, et la société Dendrotech.
Outre le DIM Matériaux anciens et patrimoniaux, le projet bénéficie d'un soutien financier du LSCE, de la plateforme PANOPLY, des labopratoire ArchAm, ArScAn, AASPE, CR2P, HNHP, METIS et de la société Dendrotech.

 

 

 

21 décembre 2021
https://pmip.lsce.ipsl.fr/

Il y a 30 ans sur le plateau de Saclay..... un workshop NATO,  organisé par Jean jouzel et Sylvie Joussaume, a scellé l'avenir de la toute naissante équipe de modélisation du climat du tout naissant LMCE. Les 2 et 3 décembre, nous avons fêté les 30 ans du Paleoclimate Modelling Intercomparison Project sous la forme d'un marathon de 30 heures non stop, qui a rassemblé plus de 500 participants autour de la Terre.

L'objectif? discuter l'apport de la modélisaton des paléoclimats et de la comparaison aux reconstructions climatiques pour une large gamme de questions sur le changement climatique : la sensibilite climatique, le cycle de l'eau, la calotte, l'océan et les événements abrupts, le cycle du carbone, la variabilité interannuelle à millénaire et bien d'autres aspects.

Les deux premières heures ont retracé les premières heures de PMIP et les grandes lignes de cette aventure co-coordonnée au LSCE depuis la première heure.

Cet événement a été accompagné par la sortie du numéro spécial du PAGES Magazine:

https://www.pastglobalchanges.org/publications/pages-magazines/pages-magazine/128645

Cette célébration montre que PMIP a fédéré une communauté de modélsiation des paléoclimats qui a pris plaisir à se retrouver autour de ses trente bougies.

09 septembre 2021

The description and analysis of compound extremes affecting mid and high latitudes in the winter requires an accurate estimation of snowfall. This variable is often missing from in-situ observations, and biased in climate model outputs, both in magnitude and number of events; moreover, large discrepancies in snowfall amounts exist between observational and reanalysis datasets, depending on the region [1]. While climate models can be adjusted using bias correction (BC), snowfall presents additional challenges compared to other variables, preventing one from applying traditional univariate BC methods. We extend the existing literature on the estimation of the snowfall fraction from near-surface temperature, which usually involves binary thresholds [2] or fitting parametric nonlinear functions [3]. We show that, considering models such as segmented and spline regressions and nonlinear least squares fitting, it is possible to obtain accurate out-of-sample estimates of snowfall over Europe in ERA5 reanalysis, and to perform effective BC on the IPSL-WRF high resolution EURO-CORDEX climate model only relying on bias adjusted temperature and precipitation. This method offers a feasible way to reconstruct or adjust snowfall observations without requiring multivariate or conditional bias correction and stochastic generation of unobserved events. This work is currently under review for the interdisciplinary journal Advances in Statistical Climatology, Meteorology and Oceanography and the article is available [4] and it has been supported by the ANR-TERC project BOREAS.

 

[1]  Faranda, D.: An attempt to explain recent changes in European snowfall extremes, Weather and Climate Dynamics, 1, 445–458, 2020.
[2] Schmucki, E., Marty, C., Fierz, C., and Lehning, M.: Simulations of 21st century snow response to climate change in Switzerland from a setof RCMs, International journal of climatology, 35, 3262–3273, 2015
[3] Dai, A.: Temperature and pressure dependence of the rain-snow phase transition over land and ocean, Geophysical Research Letters, 35,6652008
[4] Pons, F. M. E. and Faranda, D.: Statistical reconstruction of European winter snowfall in reanalysis and climate models based on air temperature and total precipitation, Adv. Stat. Clim. Meteorol. Oceanogr., 8, 155–186, https://doi.org/10.5194/ascmo-8-155-2022, 2022.
31 mai 2021

L’amélioration des prédictions des modèles de système Terre pour le climat des XXIe siècle et suivants passe par une meilleure compréhension du fonctionnement des modèles dans des contextes de températures et CO2 élevés sur lesquels ils ne sont pas calibrés. Or la dernière période au cours de laquelle les proxies estiment une concentration de CO2 similaire à celle attendue pour la fin du siècle selon les scénarios « business-as-usual » est l’Eocène Inférieur (~ 55 – 50 Ma). Sous l’égide de PMIP4, un projet d’intercomparaison de modèles, DeepMIP (https://www.deepmip.org/), a ainsi été lancé avec cette période comme objectif dans le but d’évaluer la capacité des modèles à reproduire les reconstructions issues des proxies et de comprendre les raisons des différences inter-modèles.

Nous avons participé à cet exercice avec le modèle IPSL-CM5A2 (Sepulchre et al. 2020), une version basse résolution du modèle IPSL analogue à la version utilisée pour l’exercice CMIP5 mais qui a bénéficié de nombreux développements techniques (vitesse de calcul, adaptation des grilles du modèle, …) permettant son utilisation sur des périodes très anciennes. À partir des mêmes conditions initiales (paléogéographie, distribution de végétation, constante solaire, paramètres orbitaux, …), les différents modèles participants ont réalisé des simulations à différents taux de CO2 en plus d’une simulation préindustrielle de référence.

La figure 1 montre les résultats obtenus pour deux métriques couramment utilisées en paléoclimatologie, la moyenne annuelle globale de température de surface (GMST) par rapport à la concentration en CO2 (panel a) et le gradient méridional de température de surface de l’océan (SST) entre les tropiques et les hautes latitudes par rapport à la moyenne annuelle globale de SST (panel b). Les simulations DeepMIP montrent que la plupart des modèles (gros symboles colorés) arrive à simuler une GMST cohérente avec les estimations issues des proxies (rectangles gris) pour des CO2 compris entre 3 et 6 fois la concentration préindustrielle, ce qui n’était le cas auparavant que pour des CO2 bien plus élevés ou avec une paramétrisation spécifique des nuages (symboles gris, simulations réalisées avec des versions plus anciennes des modèles). Le spread inter-modèle est également assez réduit, en particulier à 3x puisque tous les modèles donnent une GMST quasi-identique à l’exception de MIROC (et INMCM et NorESM qui n’ont pas réalisés de simulation à cette concentration en CO2).

07 mai 2021

Le recul des glaciers et des calottes polaires favorise le développement de lacs. Notamment, les lacs proglaciaires se forment dans les dépressions topographiques situées à l’aval des glaciers. Au cours de la dernière déglaciation ces lacs étaient nombreux dans l’Hémisphère Nord et pouvaient atteindre des tailles considérables. Par exemple le lac Agassiz-Ojibway qui bordait la marge sud de la calotte polaire Nord Américaine avait une étendue d’environ 1,5 million de km², soit l’équivalent à la superficie du Portugal, de l’Espagne, de la France et de l’Allemagne réunies. L’importance que ces lacs ont pu avoir sur l’évolution du climat est largement reconnu mais leur rôle sur la dynamique des écoulements glaciaires n’avait jamais été quantifié jusqu’à présent.

Pour cette étude nous avons utilisé un ensemble de simulations numériques qui couvrent la période de la dernière déglaciation pour étudier le rôle des lacs proglaciaires sur la dynamique de la calotte Nord Américaine. Nous avons pu montrer que les lacs pouvaient conduire à des instabilités mécaniques grande échelle pouvant expliquer la moitié des pertes de masse lorsque cette calotte recule dans la région de la Baie d’Hudson actuelle.

Ce mécanisme s’explique par le fait que la ligne d’échouage, c’est à dire la transition entre la glace posée et la glace flottante, est en situation instable lorsque le socle rocheux présente une pente rétrograde (l’amont est plus profond que l’aval). L’enfoncement du socle rocheux sous la calotte Nord Américaine en période glaciaire (isostasie) produit exactement cette configuration et c’est dans ces dépressions isostatiques qu’apparaissent les grands lacs proglaciaires.

07 mai 2021

La fonte des calottes polaires du Groenland et de l’Antarctique s’accentue sous l’effet du réchauffement climatique, avec une perte de masse qui a été multipliée par six ces quarante dernières années. Les calottes polaires pourraient ainsi devenir très prochainement les principales responsables de l’élévation du niveau marin global. Tout récemment, des glaciologues, océanographes et climatologues de 13 pays ont travaillé conjointement pour réaliser de nouvelles projections sur le devenir des calottes polaires du Groenland et l’Antarctique dans le futur, dans le cadre du projet ISMIP6 (Ice Sheet Model Intercomparison Project for CMIP6).

Au LSCE, nous avons participé activement à cette collaboration internationale, notamment en réalisant les projections pour les calottes du Groenland et de l’Antarctique avec le modèle développé au laboratoire (GRISLI).

22 janvier 2021

Le projet PMIP (Paleoclimate Modelling Intercomparison Project) a été initié il y a presque 30 ans, à la suite du projet AMIP (Atmospheric Modelling Intercomparison Project). Il coordonne des simulations de climats-clefs du passé de manière à en comprendre les différences par rapport au climat actuel et à évaluer les modèles utilisés pour la prévision des climats futurs ). La quatrième phase de PMIP, coordonne les simulations paléoclimatiques de la sixième phase de CMIP (Coupled Model Intercomparison Project), qui rassemble un ensemble de simulations du climat actuel, de climats passés et de scénarios pour le futur pour comprendre les changements climatiques, évaluer les modèles de climat et s’interroger sur le futur du climat. Les premiers résultats ont été  publiés fin 2020 et début 2021, pour les climats de l’Holocène Moyen (il y a 6 000 ans) et du dernier interglaciaire (il y a 127 000 ans). Ces deux périodes sont caractérisées par un cycle saisonnier du flux solaire au sommet de l’atmosphère dans l’hémisphère nord, favorisant une plus grande amplitude du cycle saisonnier des températures boréales et des moussons renforcées en hémisphère nord.

13 janvier 2021

La COVID-19 affecte actuellement la totalité de pays du monde et fait peser de graves menaces sur la santé publique ainsi que sur la stabilité économique et sociale. Modéliser et extrapoler en temps quasi réel l'évolution de l'épidémie du COVID-19 est un défi scientifique, qui nécessite une compréhension approfondie des non-linéarités qui minent la dynamique des épidémies. Dans un premier article [1], nous montrons que les prédictions en temps réel des infections COVID-19 sont extrêmement sensibles aux erreurs de collecte de données et dépendent essentiellement du dernier point de mesure disponible. Nous testons ces idées dans des modèles statistiques (logistiques) et dynamiques (Susceptible-Exposed-Infected-Recovered) qui sont largement utilisés pour prévoir l'évolution de l'épidémie de COVID-19. Notre objectif a été de montrer comment les incertitudes résultant à la fois de la mauvaise qualité des données et des estimations inadéquates des paramètres du modèle (taux d’incubation, d’infection et de récupération) se propagent aux extrapolations à long terme du nombre d’infections. Cette connaissance nous a permis de réaliser quelques scenarios de propagation du COVID19 où, même avec des grandes incertitudes, la menace d'une deuxième vague etait bien détectable déjà au printemps 2020 [2].

Références de publication :

[1] Faranda et al. Chaos 30, 051107 (2020); https://doi.org/10.1063/5.0008834

[2] Faranda et al. Chaos 30, 111101 (2020); https://doi.org/10.1063/5.0015943

Articles de presse  associés:

  • Modeling COVID-19 data must be done with extreme care, Science Daily [Anglais]   
  • Modeling COVID-19 data must be done with extreme care, scientists say, Phys.org [Anglais] 
  • Coronavirus, il ricercatore italiano: "Ho perso mio nonno, ora studio i modelli dell'epidemia, Repubblica.it [Italien]
  • ¿Qué se puede hacer para mejorar los modelos de la COVID-19? , SINC.es [Espagnol]  

Auteurs:

FARANDA Davide (LSCE-IPSL, CNRS), ALBERTI Tommaso, PÉREZ CASTILLO Isaac, HULME Oliver, JEZEQUEL Aglaé, LAMB Jeroen, SATO Yuruzu, and THOMPSON Erica

 

 

13 janvier 2021
Challenge: How to simulate 100 millennial heatwaves at the cost of 100 simulations?

Nudging a stochastic weather generator based on atmospheric circulation analogs towards high local temperatures [here temperature average between Madrid, Toulouse, Orly, De Bilt and Berlin], to obtain the warmest summers that could be, starting on a June 1st and the armest summers that could be, with a weather patterns that are similar to observations. This is a proof of concept of a methodology to simulate unprecedented events, by resampling observations. We performed application to simulate a worst case scenario (warm December then wet spring) leading to low crop yield.

References:

[1] Yiou, P. and Jézéquel, A.:, Geosci. Model Dev., 13, 763–781, https://doi.org/10.5194/gmd-13-763-2020,  2020.

[2] Pfleiderer, P., Jézéquel, A., Legrand, J., Legrix, N., Markantonis, I., Vignotto, E., and Yiou, P.: Earth Syst. Dynam. Discuss., https://doi.org/10.5194/esd-2020-32, 2020.

 

Authors:

YIOU Pascal (LSCE-IPSL, CNRS),  JEZEQUEL Aglaé

 

17 mai 2021

Land surface modellers need measurable proxies to constrain the quantity of carbon dioxide (CO2) assimilated by continental plants through photosynthesis, known as gross primary production (GPP). Carbonyl sulfide (COS), which is taken up by leaves through their stomates and then hydrolysed by photosynthetic enzymes, is a candidate GPP proxy. A former study with the ORCHIDEE land surface model used a fixed ratio of COS uptake to CO2 uptake normalised to respective ambient concentrations for each vegetation type (leaf relative uptake, LRU) to compute vegetation COS fluxes from GPP. The LRU approach is known to have limited accuracy since the LRU ratio changes with variables such as photosynthetically active radiation (PAR): while CO2 uptake slows under low light, COS uptake is not light limited. However, the LRU approach has been popular for COS–GPP proxy studies because of its ease of application and apparent low contribution to uncertainty for regional-scale applications. In this study we refined the COS–GPP relationship and implemented in ORCHIDEE a mechanistic model that describes COS uptake by continental vegetation. We compared the simulated COS fluxes against measured hourly COS fluxes at two sites and studied the model behaviour and links with environmental drivers. We performed simulations at a global scale, and we estimated the global COS uptake by vegetation to be 756 Gg S yr−1, in the middle range of former studies (490 to 1335 Gg S yr−1). Based on monthly mean fluxes simulated by the mechanistic approach in ORCHIDEE, we derived new LRU values for the different vegetation types, ranging between 0.92 and 1.72, close to recently published averages for observed values of 1.21 for C4 and 1.68 for C3 plants. We transported the COS using the monthly vegetation COS fluxes derived from both the mechanistic and the LRU approaches, and we evaluated the simulated COS concentrations at NOAA sites. Although the mechanistic approach was more appropriate when comparing to high-temporal-resolution COS flux measurements, both approaches gave similar results when transporting with monthly COS fluxes and evaluating COS concentrations at stations. In our study, uncertainties between these two approaches are of secondary importance compared to the uncertainties in the COS global budget, which are currently a limiting factor to the potential of COS concentrations to constrain GPP simulated by land surface models on the global scale.

Authors: Maignan, F., Abadie, C., Remaud, M., Kooijmans, L. M. J., Kohonen, K.-M., Commane, R., Wehr, R., Campbell, J. E., Belviso, S., Montzka, S. A., Raoult, N., Seibt, U., Shiga, Y. P., Vuichard, N., Whelan, M. E., and Peylin, P.

Ref: Biogeosciences, 18, 2917–2955, https://doi.org/10.5194/bg-18-2917-2021, 2021.

03 mai 2021

Given the ever increasing spatial resolution of climate models and the significant role of lakes on the regional climate, it becomes important to represent water bodies in climate models. Such developments have started in the IPSL (Institut Pierre Simon Laplace) climate model and its land surface component, ORganizing Carbon and Hydrology In Dynamic Ecosystems (ORCHIDEE), with the Freshwater Lake model, FLake. To answer the questions raised by these new developments, such as the lake differentiation and related model parameters, we analyze spatial distributions of lake characteristics in the whole world to perform a global sensitivity analysis of the FLake parameters. As a result, three different climates and four lake depth configurations were selected as test cases. The Sobol method as sensitivity analysis based on variance decomposition was chosen to rank parameters impact on the model output, that is, lake surface water temperature, latent and sensible heat fluxes. We focus on the 11 parameters of the FLake model, which are the lake depth, the albedo and light extinction coefficient of water, snow, and ice respectively, the fetch, and the relaxation coefficient of the thermocline shape factor. The results show different sensitivity features according to the lake type and climate. The dominant role and time varying contribution of the lake depth, radiative parameters (albedo, light extinction coefficient) and thermocline relaxation coefficient linked to the atmospheric conditions, were clearly highlighted. These findings will lead us to distinguish between different lake categories in each grid cell of ORCHIDEE in the future implementation.

Authors: Antnony Bernus, Catherine Ottlé, Nina Raoult

Ref: Journal of Geophysical Research: Atmospheres, 126, e2019JD031928. https://doi.org/10.1029/2019JD031928

21 décembre 2021
https://pmip.lsce.ipsl.fr/

Il y a 30 ans sur le plateau de Saclay..... un workshop NATO,  organisé par Jean jouzel et Sylvie Joussaume, a scellé l'avenir de la toute naissante équipe de modélisation du climat du tout naissant LMCE. Les 2 et 3 décembre, nous avons fêté les 30 ans du Paleoclimate Modelling Intercomparison Project sous la forme d'un marathon de 30 heures non stop, qui a rassemblé plus de 500 participants autour de la Terre.

L'objectif? discuter l'apport de la modélisaton des paléoclimats et de la comparaison aux reconstructions climatiques pour une large gamme de questions sur le changement climatique : la sensibilite climatique, le cycle de l'eau, la calotte, l'océan et les événements abrupts, le cycle du carbone, la variabilité interannuelle à millénaire et bien d'autres aspects.

Les deux premières heures ont retracé les premières heures de PMIP et les grandes lignes de cette aventure co-coordonnée au LSCE depuis la première heure.

Cet événement a été accompagné par la sortie du numéro spécial du PAGES Magazine:

https://www.pastglobalchanges.org/publications/pages-magazines/pages-magazine/128645

Cette célébration montre que PMIP a fédéré une communauté de modélsiation des paléoclimats qui a pris plaisir à se retrouver autour de ses trente bougies.

23 septembre 2021

Hazards like droughts and heatwaves increase tree mortality, through mechanisms that alter their carbon reserves.  In [1] we adapt the concept of ruin modelling, from the insurance industry, to devise a growth-ruin model for forests, as a response to climate hazards. This model allows to estimate the probability of « ruin », i.e. the loss of ability to maintain carbon reserves for trees, within one century and

We compare [1] two strategies of coping with hazards:

  1. Pay in « cash »: trees stop growing and no longer build reserves
  2. Pay in « credit »: trees go on growing but defer the effect of the hazard to the next year

We find that balancing ruin probability vs. high reserve depends on those strategies and the way hazards occur in time (duration and frequency). We determine thresholds of such parameters (coping strategies, hazard occurrence & intensity) that can trigger bifurcations of behavior, from low to high risk.

[1]Yiou, P. and Viovy, N.: Modelling forest ruin due to climate hazards, Earth Syst. Dynam., 12, 997–1013, https://doi.org/10.5194/esd-12-997-2021, 2021.

20 septembre 2021

La Mission Archéologique Française d'Artigas (Nord-Ouest de l'Uruguay) a pour zone d'étude le micro-bassin d'arroyo Catalán Chico, un cours d'eau qui traverse le département d'Artigas et qu’appartient au bassin hydrographique du Río de la Plata. Cette zone a été le scénario d'enquêtes archéologiques épisodiques depuis les années 1950, initiées par Antonio Taddei (1908-1995), précurseur de l'archéologie scientifique en Uruguay. A. Taddei a découvert divers sites de surface qui ont retenu l'attention de la communauté archéologique américaine pendant plusieurs décennies.

Sa définition typologique et historico-culturelle de l'industrie lithique Catalanense était une sorte de fossile directeur au sein de la discussion sur les premiers peuplements du cône sud de l'Amérique du Sud, une industrie supposée être le représentant archéologique des populations humaines d'environ 10 000 BP.

Il a fallu attendre la fin des années 1990 pour que de nouvelles investigations définissent une archéologie régionale composée de plus d'une centaine de sites en surface (au-delà de la zone de Catalán), ce qui a permis de repenser le Catalanense à partir d'une caractérisation pétrographique des matières premières utilisées et d'une compréhension de la séquence de réduction des artefacts lithiques. Malgré les fruits de l'approche géoarchéologique appliquée, l'archéologie de l’arroyo Catalán Chico manque toujours 1- d'une colonne chrono-stratigraphique robuste, 2- d'une compréhension homogène de la fonctionnalité des sites (tous supposés comme carrières-ateliers), 3- d'une compréhension territoriale des identités culturelles exprimée archéologiquement. Pour ces raisons, il devenait urgent qu’un travail archéologique qui recueille les résultats de recherches anciennes et les prolonge en exécutant des analyses exhaustives de la culture matérielle à partir de sa variabilité interne soit mené. C'est l'objet de la Mission Archéologique Française d'Artigas.

Ainsi, la mission met l'accent scientifique contemporain sur une localité archéologique classique en Amérique du Sud, dans le but d'évaluer son potentiel stratigraphique, d'effectuer des datations radiométriques et de récupérer du matériel archéologique à partir de contextes non perturbés par des altérations post-dépositionnelles.

Cette première année de fouille et prospections (juillet-septembre 2021) a permis de révéler une succession d’occupations humaines, clairement identifiables au sein de stratigraphies. Des industries lithiques spécifiques et caractéristiques de la région, ont ainsi été mises au jour et seront encadrées par des datations OSL et 14C (mesures en cours).

Figure 1: Activité de fin de journée: représentation graphique fonctionnelle d'un outil en arénite verte présentant les 3 fonctionnalités  typiques des industries de Catalan.

Les explorations, menées parallèlement en se basant sur des similitudes géomorphologiques, ont permis de pointer plusieurs zones potentielles pour de nouvelles stratigraphies. La présence d'industries lithiques en sub-surface a permis de conforter notre analyse du terrain.

Figure 2: Paysage "à lire" pour définir les aires potentielles de sites archéologiques: retrouver les affleurements de matières premières, imaginer le cours passé de la rivière, la localisation des zones sèches et saines où s'établir semble possible.

L'année 2022 sera celle de l'investigation poussée des zones potentielles que nous venons de révéler.


Coordinatrice France: Hatté C. – coordinatrice Uruguay: Gluchy M.
Financement 2021-2024: Ministère de l'Europe et des Affaires Étrangères.

09 septembre 2021

The description and analysis of compound extremes affecting mid and high latitudes in the winter requires an accurate estimation of snowfall. This variable is often missing from in-situ observations, and biased in climate model outputs, both in magnitude and number of events; moreover, large discrepancies in snowfall amounts exist between observational and reanalysis datasets, depending on the region [1]. While climate models can be adjusted using bias correction (BC), snowfall presents additional challenges compared to other variables, preventing one from applying traditional univariate BC methods. We extend the existing literature on the estimation of the snowfall fraction from near-surface temperature, which usually involves binary thresholds [2] or fitting parametric nonlinear functions [3]. We show that, considering models such as segmented and spline regressions and nonlinear least squares fitting, it is possible to obtain accurate out-of-sample estimates of snowfall over Europe in ERA5 reanalysis, and to perform effective BC on the IPSL-WRF high resolution EURO-CORDEX climate model only relying on bias adjusted temperature and precipitation. This method offers a feasible way to reconstruct or adjust snowfall observations without requiring multivariate or conditional bias correction and stochastic generation of unobserved events. This work is currently under review for the interdisciplinary journal Advances in Statistical Climatology, Meteorology and Oceanography and the article is available [4] and it has been supported by the ANR-TERC project BOREAS.

 

[1]  Faranda, D.: An attempt to explain recent changes in European snowfall extremes, Weather and Climate Dynamics, 1, 445–458, 2020.
[2] Schmucki, E., Marty, C., Fierz, C., and Lehning, M.: Simulations of 21st century snow response to climate change in Switzerland from a setof RCMs, International journal of climatology, 35, 3262–3273, 2015
[3] Dai, A.: Temperature and pressure dependence of the rain-snow phase transition over land and ocean, Geophysical Research Letters, 35,6652008
[4] Pons, F. M. E. and Faranda, D.: Statistical reconstruction of European winter snowfall in reanalysis and climate models based on air temperature and total precipitation, Adv. Stat. Clim. Meteorol. Oceanogr., 8, 155–186, https://doi.org/10.5194/ascmo-8-155-2022, 2022.
03 septembre 2021

Climate simulations have spatial biases, i.e., spatial properties (e.g., rainfall variability between different sites) can differ from observations. Consequently, corrections of spatial properties are needed, e.g. for impact studies [1]. As proof-of-concept, we proposed to adapt a computer vision technique used for Image-to-Image translation tasks (named CycleGAN [2]) for the adjustment of spatial properties of climate simulations [3].

The proposed algorithm, named MBC-CycleGAN, consists in learning to transfer simulated maps (seen as images) from climate simulations with inappropriate spatial properties to more realistic images with spatial properties similar to the observed ones. We tested MBC-CycleGAN by performing two bias correction exercises, both with respect to SAFRAN references [4] for temperature and precipitation data over the region of Paris:

  1. Bias correction of climate simulations IPSL -> SAFRAN (IPSL data do not temporally match SAFRAN data).
  2. Downscaling of "low-resolution" SAFRAN -> SAFRAN (LR SAFRAN data temporally match SAFRAN).

We compared the results for the correction of the spatial properties with other state-of-the-art bias correction methods (Quantile-quantile [5], R2D2 [6] and dOTC [7]). MBC-CycleGAN produced reasonable adjustments of spatial correlations for temperature and precipitation compared to the other alternatives. In particular, better results are obtained for the correction of paired images ("low-resolution" SAFRAN).

These results suggest that CycleGAN is very promising for multivariate bias correction. Of course, further research is needed, such as extending our method to correct not only spatial properties but also inter-variable and/or temporal ones.

 


[1] Maraun, D. et al. Precipitation downscaling under climate change: recent developments to bridge the gap between dynamical models and the end user. Rev Geophys (2010).   https://doi.org/10.1029/2009RG000314

[2] Zhu, J.Y., Park, T., Isola, P., Efros, A.A. Unpaired image-to-image translation using cycle-consistent adversarial networks.  (2017)  arXiv: 1703.10593

[3] François, B., Thao, S. & Vrac, M. Adjusting spatial dependence of climate model outputs with cycle-consistent adversarial networks. Clim Dyn (2021). https://doi.org/10.1007/s00382-021-05869-8

[4] Vidal, J. P., Martin, E., Franchistéguy, L., Baillon, M., Soubeyroux, J.M. A 50-year high-resolution atmospheric reanalysis over France with the Safran system. Int J Climatol (2010). https://
doi.org/10.1002/joc.2003

[5] Déqué, M. Frequency of precipitation and temperature extremes over France in an anthropogenic scenario: model results and statistical correction according to observed values.  Glob Planet Change (2007). https://doi.org/10.1016/j.gloplacha.2006.11.030

[6] Vrac, M., Thao, S. R2D2 v2.0: accounting for temporal dependences in multivariate bias correction via analogue ranks resampling. Geosci Model Dev (2020). https://doi.org/10.5194/gmd-2020-132

[7] Robin, Y., Vrac, M., Naveau, P., Yiou, P. Multivariate stochastic bias corrections with optimal transport. Hydrol Earth Syst Sci (2019). https://doi.org/10.5194/hess-23-773-2019

03 septembre 2021

Water isotope ratios of ice cores are a key source of information on past temperatures. Through fractionation within the hydrological cycle, temperature is imprinted in the water isotopic composition of snowfalls. However, this signal of climatic interest is modified after deposition when snow remains at the surface exposed to the atmosphere. Comparing time series of surface snow isotopic composition at Dome C with satellite observations of surface snow metamorphism, we found that long summer periods without precipitation favor surface snow metamorphism altering the surface snow isotopic composition. Using excess parameters (combining D,17O, and 18O fractions) allow the identification of this alteration caused by sublimation and condensation of surface hoar. The combined measurement of all three isotopic compositions could help identifying ice core sections influenced by snow metamorphism in sites with very low snow accumulation.

 

Auteurs : Mathieu Casado, Amaelle Landais, Ghislain Picard, Laurent Arnaud, Giuliano Dreossi, Barbara Stenni, Frederic Prié

 

Ref. : Geophysical Research Letters 48 (17), 2021

19 août 2021

The rate at which land surface soils dry following rain events is an important feature of terrestrial models. It
determines, for example, the water availability for vegetation, the occurrences of droughts, and the surface heat exchanges.
As such, surface soil moisture (SSM) ‘‘drydowns,’’ i.e., the SSM temporal dynamics following a significant rainfall event, are
of particular interest when evaluating and calibrating land surface models (LSMs). By investigating drydowns, characterized
by an exponential decay time scale t, we aim to improve the representation of SSM in the ORCHIDEE global LSM. We
consider t calculated over 18 International Soil Moisture Network sites found within the footprint of FLUXNET towers,
covering different vegetation types and climates. Using the ORCHIDEE LSM, we compare t from the modeled SSM time
series to values computed from in situ SSM measurements. We then assess the potential of using t observations to constrain
some water, carbon, and energy parameters of ORCHIDEE, selected using a sensitivity analysis, through a standard
Bayesian optimization procedure. The impact of the SSM optimization is evaluated using FLUXNET evapotranspiration
and gross primary production (GPP) data. We find that the relative drydowns of SSM can be well calibrated using
observation-based t estimates, when there is no need to match the absolute observed and modeled SSM values. When
evaluated using independent data, t-calibration parameters were able to improve drydowns for 73% of the sites.
Furthermore, the fit of the model to independent fluxes was only minutely changed. We conclude by considering the
potential of global satellite products to scale up the experiment to a global-scale optimization.

Authors: Nina Raoult, Catherine Ottlé, Philippe Peylin, Vladislav Bastrikov, and Pascal Maugis

Ref: Journal of Hydrometeorology, 22(4), 1025-1043.

09 juillet 2021
Cette courte vidéo présente la succession des manipulations réalisées par le groupe de dendro-isotopie du LSCE (équipe GEOTRAC) pour déterminer la composition isotopique de la cellulose des cernes des arbres.
Réalisateur : Edouard Régnier

01 juillet 2021

Le projet d'équipement "RIOCAS" (Rapport isotopique de l’oxygène, du carbone, de l’azote et du soufre dans le bois et autres composés organiques végétaux) est soutenu par le Domaine d'Intérêt Majeur "Matériaux Anciens et Patrimoniaux" (DIM-MAP) de la région Ile de France au titre de l'appel à projets 2021.

L’objectif du projet RIOCAS est d’accroître les capacités et les performances analytiques de la dendro-isotopie en Île-de-France. Il consiste en l’acquisition d’un spectromètre de masse de rapport isotopique (IRMS) couplé à un analyseur élémentaire Haute température (TC/EA) pour analyser la composition isotopique de l’oxygène, du carbone, de l’azote et du soufre (δ18O, δ13C, δ15N et δ34S) dans la cellulose, le bois et d’autres matières organiques végétales.
Les partenaires du projet, issus de 7 laboratoires de recherche franciliens et d’un bureau d’études, prévoient d’utiliser le TC/EA – IRMS dans plusieurs chantiers d’envergure. Entre autres projets, ils envisagent de réaliser une reconstitution dendro-isotopique du climat médiéval en Ile-de-France et d’évaluer le potentiel de la dendro- anthracologie en paléoclimatologie, à partir des bois calcinés de Notre-Dame de Paris. Ils mettront également à profit les gains de productivité et de fiabilité offerts par ce nouvel équipement, pour explorer le potentiel de l’approche isotopique en paléobotanique et palynologie. Les bases de données qui en découleront, seront ouvertes à la communauté scientifique pour des applications pluridisciplinaires. Enfin, ce nouvel équipement permettra des développements novateurs ouvrant vers de nouvelles thématiques dans le domaine environnemental.

Ce projet résulte d'un partenariat entre les laboratoires AASPE, ArchAm, ArScAn, CR2P, HNHP et METIS, et la société Dendrotech.
Outre le DIM Matériaux anciens et patrimoniaux, le projet bénéficie d'un soutien financier du LSCE, de la plateforme PANOPLY, des labopratoire ArchAm, ArScAn, AASPE, CR2P, HNHP, METIS et de la société Dendrotech.

 

 

 

10 juin 2021

Les décanteurs présents dans les réseaux d'assainissement permettent de sédimenter des solides en suspension plutôt grossiers, et donc peu favorables a priori au piégeage des contaminants organiques. Pourtant, ces décanteurs sont proches des zones d'excrétion, et surtout positionnés en amont des stations d'épuration. Cela les place idéalement pour accueillir une grande diversité des molécules organiques présentes dans les eaux usées brutes. Parmi celles-ci, les traceurs de type pharmaceutiques et drogues illicites sont utilisés depuis une vingtaine d'années pour recalculer les usages sur la zone de collecte des eaux usées. Dans ce travail, nous avons utilisé une approche de type épidémiologie basée sur l'évolution des teneurs de divers contaminants dans des sédiments accumulés dans un décanteur qui draine un réseau d'assainissement unitaire (eaux usées et eaux pluviales). L'objectif était d'envisager reconstituer l'évolution des consommations historiques en une vingtaine de drogues illicites et produits pharmaceutiques. Grâce à une épaisse accumulation sédimentaire, le décanteur investigué, la Chambre à Sable d'Orléans, ouvrait une fenêtre temporelle de potentiellement 70 ans.

L'archive sédimentaire présente des variations verticales très importantes du cortège organo-minéral, avec deux grands types de faciès. Le premier, plutôt fin et organique, provenant d'apports des eaux usées. Le second, plus grossier et peu organique, provenant d'apports des eaux pluviales. Cette différence très importante entre les deux faciès a un impact très fort sur l'affinité des contaminants organiques pour ces matrices solides. Le principal résultat de ce travail a été de montrer que l'évolution verticale des teneurs en contaminants était davantage impactée par la spéciation des molécules et leurs relations avec les faciès plutôt que par les niveaux de consommation dans la zone de collecte. Ainsi, et malgré une source commune pour toutes ces molécules, les composés cationiques sont distribués dans les deux types de faciès alors que les composés neutres et anioniques sont quasi exclusivement présents dans le faciès organique. Pour espérer pouvoir recalculer des consommations historiques de médicaments et drogues, un premier type de normalisation devra être utilisé (au carbone organique) pour certains composés. Cela ne sera toutefois pas suffisant pour toutes les molécules considérées. Il reste donc encore du travail pour identifier plus précisément les facteurs contrôlant la distribution des composés cationiques dans ces sédiments.

31 mai 2021

L’amélioration des prédictions des modèles de système Terre pour le climat des XXIe siècle et suivants passe par une meilleure compréhension du fonctionnement des modèles dans des contextes de températures et CO2 élevés sur lesquels ils ne sont pas calibrés. Or la dernière période au cours de laquelle les proxies estiment une concentration de CO2 similaire à celle attendue pour la fin du siècle selon les scénarios « business-as-usual » est l’Eocène Inférieur (~ 55 – 50 Ma). Sous l’égide de PMIP4, un projet d’intercomparaison de modèles, DeepMIP (https://www.deepmip.org/), a ainsi été lancé avec cette période comme objectif dans le but d’évaluer la capacité des modèles à reproduire les reconstructions issues des proxies et de comprendre les raisons des différences inter-modèles.

Nous avons participé à cet exercice avec le modèle IPSL-CM5A2 (Sepulchre et al. 2020), une version basse résolution du modèle IPSL analogue à la version utilisée pour l’exercice CMIP5 mais qui a bénéficié de nombreux développements techniques (vitesse de calcul, adaptation des grilles du modèle, …) permettant son utilisation sur des périodes très anciennes. À partir des mêmes conditions initiales (paléogéographie, distribution de végétation, constante solaire, paramètres orbitaux, …), les différents modèles participants ont réalisé des simulations à différents taux de CO2 en plus d’une simulation préindustrielle de référence.

La figure 1 montre les résultats obtenus pour deux métriques couramment utilisées en paléoclimatologie, la moyenne annuelle globale de température de surface (GMST) par rapport à la concentration en CO2 (panel a) et le gradient méridional de température de surface de l’océan (SST) entre les tropiques et les hautes latitudes par rapport à la moyenne annuelle globale de SST (panel b). Les simulations DeepMIP montrent que la plupart des modèles (gros symboles colorés) arrive à simuler une GMST cohérente avec les estimations issues des proxies (rectangles gris) pour des CO2 compris entre 3 et 6 fois la concentration préindustrielle, ce qui n’était le cas auparavant que pour des CO2 bien plus élevés ou avec une paramétrisation spécifique des nuages (symboles gris, simulations réalisées avec des versions plus anciennes des modèles). Le spread inter-modèle est également assez réduit, en particulier à 3x puisque tous les modèles donnent une GMST quasi-identique à l’exception de MIROC (et INMCM et NorESM qui n’ont pas réalisés de simulation à cette concentration en CO2).

31 mai 2021

Le consortium GeoTrAc[1]-AASPE[2]-GEOPS[3]-LMC14[4] a acquis un système de dosage automatisé en bénéficiant de financements du DIM Matériaux anciens et patrimoniaux, de PANOPLY et de fonds propres des 4 équipes impliquées.

La géochronologie 14C, qu'elle soit destinée à contraindre les cycles du carbone dans notre environnement actuel ou à préciser les cadres chronologiques des études paléoclimatiques, archéologiques et muséales, fait appel à de nombreuses mesures de produits de référence qui s’ajoutent à celle de l'échantillon sélectionné afin de garantir la qualité des analyses.

Ces mesures périphériques ont pour but d'assurer une datation juste, reproductible et fine de l'échantillon. Elles sont d'autant plus importantes que l'échantillon est petit et donc sensible à des contaminations, même très faibles. Ces analyses consistent en la mesure de "blancs" et matériaux de référence de valeur haute pour la mesure physique, de "blancs" et de matériaux de référence d'âge connu pour la chaine complète d'analyse (chimie, transformation en CO2 et/ou graphite, mesure). Ces produits de référence représentent 40% des mesures réalisées sur ECHoMICADAS et leur pesée représente de 1 à 2 heures de pesée par jour.

Aujourd'hui, des solutions existent pour simplifier ce travail laborieux de pesée. Des balances automatiques permettent une pesée simplifiée, rapide et juste de nos matériaux de référence et du fer dans des contenants spécifiques. Le LSCE s'est équipé d'un tel instrument qui permettra, grâce au gain de temps, de développer la chimie encore plus individualisée que nécessitent les échantillons toujours plus petits.

Ce système de pesée automatique est doté d’une balance de précision, équipée d'une tête de pesée-trémie permettant de faire tomber des micro-quantités de matériel dans un contenant posé sur le plateau de la balance, d'un système d'asservissement réglant la vitesse de chute et la quantité de matériel tombant jusqu'à ce que la consigne soit atteinte. Les têtes de pesée, spécifiques à chaque matériel, sont équipées d'une puce électronique permettant de conserver les spécificités d'usage de la trémie en fonction des propriétés mécaniques (granulométrie, densité) du matériel à peser (apprentissage).

Financement : DIM Matériaux anciens et patrimoniaux, PANOPLY, fonds propres des 4 groupes co-porteurs


[1] GeoTrAc: équipe Géochronologie, Traceurs et Archéométrie du LSCE, Laboratoire des Sciences du Climat et de l'Environnement – UMR CEA CNRS UVSQ

[2] AASPE: Archéolozoologie et Archéobotanique: Société, Pratiques et Environnements – UMR 7209 CNRS MNHN

[3] GEOPS: Géosciences Paris Saclay – UMR Université Paris-Saclay CNRS

[4] LMC14 : Laboratoire de Mesure du 14C – UMS CEA CNRS IRSN MCC IRD, rattachée au LSCE

17 mai 2021

Land surface modellers need measurable proxies to constrain the quantity of carbon dioxide (CO2) assimilated by continental plants through photosynthesis, known as gross primary production (GPP). Carbonyl sulfide (COS), which is taken up by leaves through their stomates and then hydrolysed by photosynthetic enzymes, is a candidate GPP proxy. A former study with the ORCHIDEE land surface model used a fixed ratio of COS uptake to CO2 uptake normalised to respective ambient concentrations for each vegetation type (leaf relative uptake, LRU) to compute vegetation COS fluxes from GPP. The LRU approach is known to have limited accuracy since the LRU ratio changes with variables such as photosynthetically active radiation (PAR): while CO2 uptake slows under low light, COS uptake is not light limited. However, the LRU approach has been popular for COS–GPP proxy studies because of its ease of application and apparent low contribution to uncertainty for regional-scale applications. In this study we refined the COS–GPP relationship and implemented in ORCHIDEE a mechanistic model that describes COS uptake by continental vegetation. We compared the simulated COS fluxes against measured hourly COS fluxes at two sites and studied the model behaviour and links with environmental drivers. We performed simulations at a global scale, and we estimated the global COS uptake by vegetation to be 756 Gg S yr−1, in the middle range of former studies (490 to 1335 Gg S yr−1). Based on monthly mean fluxes simulated by the mechanistic approach in ORCHIDEE, we derived new LRU values for the different vegetation types, ranging between 0.92 and 1.72, close to recently published averages for observed values of 1.21 for C4 and 1.68 for C3 plants. We transported the COS using the monthly vegetation COS fluxes derived from both the mechanistic and the LRU approaches, and we evaluated the simulated COS concentrations at NOAA sites. Although the mechanistic approach was more appropriate when comparing to high-temporal-resolution COS flux measurements, both approaches gave similar results when transporting with monthly COS fluxes and evaluating COS concentrations at stations. In our study, uncertainties between these two approaches are of secondary importance compared to the uncertainties in the COS global budget, which are currently a limiting factor to the potential of COS concentrations to constrain GPP simulated by land surface models on the global scale.

Authors: Maignan, F., Abadie, C., Remaud, M., Kooijmans, L. M. J., Kohonen, K.-M., Commane, R., Wehr, R., Campbell, J. E., Belviso, S., Montzka, S. A., Raoult, N., Seibt, U., Shiga, Y. P., Vuichard, N., Whelan, M. E., and Peylin, P.

Ref: Biogeosciences, 18, 2917–2955, https://doi.org/10.5194/bg-18-2917-2021, 2021.

07 mai 2021

La fonte des calottes polaires du Groenland et de l’Antarctique s’accentue sous l’effet du réchauffement climatique, avec une perte de masse qui a été multipliée par six ces quarante dernières années. Les calottes polaires pourraient ainsi devenir très prochainement les principales responsables de l’élévation du niveau marin global. Tout récemment, des glaciologues, océanographes et climatologues de 13 pays ont travaillé conjointement pour réaliser de nouvelles projections sur le devenir des calottes polaires du Groenland et l’Antarctique dans le futur, dans le cadre du projet ISMIP6 (Ice Sheet Model Intercomparison Project for CMIP6).

Au LSCE, nous avons participé activement à cette collaboration internationale, notamment en réalisant les projections pour les calottes du Groenland et de l’Antarctique avec le modèle développé au laboratoire (GRISLI).

07 mai 2021

Le recul des glaciers et des calottes polaires favorise le développement de lacs. Notamment, les lacs proglaciaires se forment dans les dépressions topographiques situées à l’aval des glaciers. Au cours de la dernière déglaciation ces lacs étaient nombreux dans l’Hémisphère Nord et pouvaient atteindre des tailles considérables. Par exemple le lac Agassiz-Ojibway qui bordait la marge sud de la calotte polaire Nord Américaine avait une étendue d’environ 1,5 million de km², soit l’équivalent à la superficie du Portugal, de l’Espagne, de la France et de l’Allemagne réunies. L’importance que ces lacs ont pu avoir sur l’évolution du climat est largement reconnu mais leur rôle sur la dynamique des écoulements glaciaires n’avait jamais été quantifié jusqu’à présent.

Pour cette étude nous avons utilisé un ensemble de simulations numériques qui couvrent la période de la dernière déglaciation pour étudier le rôle des lacs proglaciaires sur la dynamique de la calotte Nord Américaine. Nous avons pu montrer que les lacs pouvaient conduire à des instabilités mécaniques grande échelle pouvant expliquer la moitié des pertes de masse lorsque cette calotte recule dans la région de la Baie d’Hudson actuelle.

Ce mécanisme s’explique par le fait que la ligne d’échouage, c’est à dire la transition entre la glace posée et la glace flottante, est en situation instable lorsque le socle rocheux présente une pente rétrograde (l’amont est plus profond que l’aval). L’enfoncement du socle rocheux sous la calotte Nord Américaine en période glaciaire (isostasie) produit exactement cette configuration et c’est dans ces dépressions isostatiques qu’apparaissent les grands lacs proglaciaires.

03 mai 2021

Given the ever increasing spatial resolution of climate models and the significant role of lakes on the regional climate, it becomes important to represent water bodies in climate models. Such developments have started in the IPSL (Institut Pierre Simon Laplace) climate model and its land surface component, ORganizing Carbon and Hydrology In Dynamic Ecosystems (ORCHIDEE), with the Freshwater Lake model, FLake. To answer the questions raised by these new developments, such as the lake differentiation and related model parameters, we analyze spatial distributions of lake characteristics in the whole world to perform a global sensitivity analysis of the FLake parameters. As a result, three different climates and four lake depth configurations were selected as test cases. The Sobol method as sensitivity analysis based on variance decomposition was chosen to rank parameters impact on the model output, that is, lake surface water temperature, latent and sensible heat fluxes. We focus on the 11 parameters of the FLake model, which are the lake depth, the albedo and light extinction coefficient of water, snow, and ice respectively, the fetch, and the relaxation coefficient of the thermocline shape factor. The results show different sensitivity features according to the lake type and climate. The dominant role and time varying contribution of the lake depth, radiative parameters (albedo, light extinction coefficient) and thermocline relaxation coefficient linked to the atmospheric conditions, were clearly highlighted. These findings will lead us to distinguish between different lake categories in each grid cell of ORCHIDEE in the future implementation.

Authors: Antnony Bernus, Catherine Ottlé, Nina Raoult

Ref: Journal of Geophysical Research: Atmospheres, 126, e2019JD031928. https://doi.org/10.1029/2019JD031928

26 avril 2021
Conférence du 5 fév. 2021 à l'Institut Diversité Ecologie et Evolution du Vivant (IDEEV)

Les terres agricoles du Plateau de Saclay résultent du combat séculaire de l'homme pour domestiquer une nature d'abord hostile, puis généreuse, au prix d'une lutte incessante contre les forces contraires : précipitations, sols marécageux, vent, gravité.

Aujourd'hui massivement drainées, le territoire offre, comme une grande partie des terres limoneuses du Bassin Parisien, une fertilité exceptionnelle issue à la fois de son climat doux et d'un sol fin et relativement épais, qui permettent de cultiver les céréales de façon intensive sans irrigation. L'urbanisation massive en cours tend à changer la donne, mais le patrimoine reste riche.

Pourtant, avec le changement climatique et la remontée progressive vers le nord des conditions favorable à la culture, notamment, du maïs, de telles dispositions seront précieuses à la préservation des ressources alimentaires du pays, voire de l'Europe.

Le revers de la médaille est cette propension des sols, une fois artificialisés par drainage ou par imperméabilisation, à évacuer les eaux de pluies par les rigoles ou par ruissellement en surface et sub-surface, vers les coteaux et les rivières de l'Yvette, de la Bièvre et de la Mérantaise en contrebas. La gestion hydraulique du Plateau est donc un enjeu majeur, aggravé temporairement par les travaux incessants en cours, pour les habitations et les installations sur le plateau, en coteaux ou en fond de vallée.

Si Gobert avait su, en son temps, valoriser ces eaux pour orner les jardins de Versailles et favoriser l'agriculture, la gestion efficace, écologique et pérenne des eaux du Plateau reste un défi.

20 avril 2021

Obtaining precise continuous measurements of water vapor isotopic composition in dry places (polar or high-altitude regions) is an important challenge. The current limitation is the strong influence of humidity on the measured water isotopic composition by laser spectroscopy instruments for low humidity levels (below 3000 ppmv). This problem is addressed by determining the relationships between humidity and measured δ18O and δD of known water standards. Here, we present the development of a robust field instrument able to generate water vapor, down to 70 ppmv, at very stable humidity levels (average 1σ lower than 10 ppmv). This instrument, operated by a Raspberry interface, can be coupled to a commercial laser spectroscopy instrument. We checked the stability of the system as well as its accuracy when expressing the measured isotopic composition of water vapor on the VSMOW–SLAP (Vienna Standard

Mean Ocean Water – Standard Light Antarctic Precipitation) scale. It proved to be highly stableduring autonomous operation over more than 1 year at the East Antarctic Concordia and Dumont d'Urville stations.

 

Authors: Leroy-Dos Santos, C., Casado, M., Prié, F., Jossoud, O., Kerstel, E., Farradèche, M., Kassi, S., Fourré, E., and Landais, A.

 

Ref. : Atmos. Meas. Tech., 14, 2907–2918, https://doi.org/10.5194/amt-14-2907-2021

20 avril 2021

Les carottes de glace forées aux pôles recèlent d’informations sur le climat et l’environnement dans le passé. En particulier, les carottes de glace forées au Groenland ont permis d’identifier 25 changements climatiques abrupts au cours de la dernière période glaciaire (~115 000 ans-15 000 ans) dûs à la variabilité naturelle du système climatique. Ces changements climatiques étaient associés à des réchauffements pouvant atteindre 16°C en quelques décennies à la surface du Groenland. Une nouvelle étude à laquelle participent des chercheuses du CNRS permet de caractériser précisément pour la première fois, la durée et l’amplitude des changements climatiques et environnementaux qui se sont produits au sein de l’Hémisphère Nord au cours de chacun de ces évènements rapides.

L'exploration des mécanismes responsables de ces variations rapides nécessite des enregistrements à l'échelle sub-décennale des changements environnementaux et climatiques régionaux au cours des transitions abruptes afin d'évaluer si les résultats des modèles climatiques sont cohérents avec les changements reconstruits. Une telle résolution temporelle reste cependant difficilement atteignable dans la plupart des archives naturelles du climat.

Dans cette étude, nous avons obtenu et utilisé des enregistrements à haute résolution (3 à 5 ans) issus de deux carottes de glace du Groenland : les carottes de glace NorthGRIP et NEEM. L'un des points forts des carottes de glace du Groenland est quelles contiennent des traceurs qui enregistrent les changements climatiques dans différentes régions de lhémisphère nord. Les isotopes de loxygène de la glace (le δ18O) renseignent sur le climat du Groenland, le d-excess, issus de la combinaison de deux isotopes de leau dans la glace (δD et δ18O), trace les changements aux latitudes moyennes, la concentration de sodium représente un indicateur qualitatif de l'étendue de la glace de mer dans l'Atlantique Nord, et la concentration de calcium reflète les changements environnementaux aux basses latitudes et l'efficacité des vents qui transportent les impuretés des basses aux hautes latitudes. Nous avons développé un outil statistique pour déterminer la date du démarrage des transitions abruptes, leur durée, ainsi que l'amplitude des changements locaux et régionaux associés à chaque réchauffement du Groenland pendant la dernière période glaciaire. Nous pouvons ainsi caractériser lanatomie de ces évènements abrupts du passé.

 

Auteurs : E. Capron, S. O. Rasmussen, T. J. Popp, V. Gkinis, B. Vaughn, T. Erhardt, H. Fischer, A. Landais, J. Pedro, G. Vettoretti, A. Svensson, B. M. Vinther, T. Blunier, J. P. Steffensen, J. W. C. White

 

Ref. : Nature Communication, 12, 2106 (2021)

01 avril 2021

Current archaeological paradigm proposes that the first peopling of the Americas does not exceed the Last Glacial Maximum period. In this context, the acceptance of the anthropogenic character of the earliest stone artefacts generally rests on the presence of projectile points considered no more as typocentric but as typognomonic, since it allows, by itself, to certify the human character of the other associated artefacts. In other words, without this presence, nothing is certain. Archaeological research at Piauí (Brazil) attests to a Pleistocene human presence between 41 and 14 cal kBP, without any record of lithic projectile points. Here, we report the discovery and interpretation of an unusual stone artefact in the Vale da Pedra Furada site, in a context dating back to 24 cal kBP. The knapping stigmata and macroscopic use-wear traces reveal a conception centered on the configuration of double bevels and the production in the same specimen of at least two successive artefacts with probably different functions. This piece unambiguously presents an anthropic character and reveals a technical novelty during the Pleistocene occupation of South America.

Eric Boëda, Marcos Ramos, Antonio Pérez, Christine Hatté, Christelle Lahaye, Mario Pino, David Hérisson, Ignacio Clemente-Conte, Michel Fontugne, Guillaume Guérin, Ximena Villagran, Janaina C. Santos, Lucas Costa, Lucie Germond, Nelson Eric Ahmed-Delacroix, Amelie Da Costa, Carolina Borges, Sirley Hoeltz, Gisele Felice, María Gluchy, Grégoire van Havre, Christophe Griggo, Livia Lucas, Iderlan de Souza, Sibeli Viana, André Strauss, Jennifer Kerner, Niède Guidon, 2021. 24.0 kyr cal BP stone artefact from Vale da Pedra Furada, Piauí, Brazil: Techno-functional analysis. PlosOne, 16 (3): e0247965– doi: 10.1371/journalpone.0247965

01 avril 2021

The formulation of variable selection has been widely developed in the Bayesian literature by linking a random binary indicator to each variable. This Bayesian inference has the advantage of stochastically exploring the set of possible sub-models, whatever their dimension. Bayesian selection approaches, appropriate for categorical predictors, are generally beyond the scope of the standard Bayesian selection of regressors in the linear model since all levels of a categorical variable should be jointly handled in the selection procedure. For categorical covariates, new strategies have been developed to detect the effect of grouped covariates rather than the single effect of a quantitative regressor. In this paper, we review three Bayesian selection methods for categorical predictors: Bayesian Group Lasso with Spike and Slab priors, Bayesian Sparse Group Selection and Bayesian Effect Fusion using model-based clustering. The motivation behind this paper is to provide detailed information about the implementation of the three Bayesian selection methods mentioned above, appropriate for categorical predictors, using the JAGS software. Selection performance and sensitivity analysis of the hyperparameters tuning for prior specifications are assessed under various simulated scenarios. JAGS helps user implement these three Bayesian selection methods for more complex model structures such as hierarchical ones with latent layers.

Reference: Jreich R., Hatté C., Parent É., 2021. Review of Bayesian selection methods for categorical predictors using JAGS. Journal of Applied Statistics, doi: 10.1080/02664763.1902955

22 janvier 2021

Le projet PMIP (Paleoclimate Modelling Intercomparison Project) a été initié il y a presque 30 ans, à la suite du projet AMIP (Atmospheric Modelling Intercomparison Project). Il coordonne des simulations de climats-clefs du passé de manière à en comprendre les différences par rapport au climat actuel et à évaluer les modèles utilisés pour la prévision des climats futurs ). La quatrième phase de PMIP, coordonne les simulations paléoclimatiques de la sixième phase de CMIP (Coupled Model Intercomparison Project), qui rassemble un ensemble de simulations du climat actuel, de climats passés et de scénarios pour le futur pour comprendre les changements climatiques, évaluer les modèles de climat et s’interroger sur le futur du climat. Les premiers résultats ont été  publiés fin 2020 et début 2021, pour les climats de l’Holocène Moyen (il y a 6 000 ans) et du dernier interglaciaire (il y a 127 000 ans). Ces deux périodes sont caractérisées par un cycle saisonnier du flux solaire au sommet de l’atmosphère dans l’hémisphère nord, favorisant une plus grande amplitude du cycle saisonnier des températures boréales et des moussons renforcées en hémisphère nord.

21 janvier 2021
Au croisement de la démographie, des habitudes alimentaires et des conflits dans le monde.

Les ressources en eau sont très inégalement réparties dans le monde, dans l'espace, à l'échelle saisonnière et en termes de régularité. On pense communément à l'accès à l'eau potable, encore problématique en Afrique, mais en réalité, tous les aspects de l'économique humaine requièrent de l'eau, soit directement, soit virtuellement à travers les importations de biens et services. 70% des prélèvements mondiaux répondent à des besoins agricoles, dont les trois quarts sont destinés à l'alimentation du bétail. Sans oublier les besoins pour l'industrie, l'énergie, ou les usages domestiques, les facteurs démographiques et les choix agroalimentaires apparaissent ainsi comme les principaux facteurs de tension hydrique, avec des impacts conséquents sur l'environnement et la géopolitique mondiale. D'ici 2050, la demande en eau devrait encore augmenter de 50%, du fait de l'explosion des besoins industriels et énergétiques des pays émergents.

 

 

20 janvier 2021

Le LSCE (CEA-CNRS-UVSQ-UPSaclay) a participé à des exercices de comparaison au meilleur niveau mondial de mesures d’isotopes de bore. L’objectif est de partager des références communes pour les recherches sur l’acidification de l’océan et ses impacts sur les organismes marins calcifiants.

Afin d’étudier l’acidification de l’océan provoquée par l’augmentation des émissions anthropogéniques de CO2, le LSCE a développé des outils géochimiques utilisant la mesure du bore et de ses isotopes (11B, 10B) dans les carbonates d’origine biologique et marine. Ces traceurs servaient initialement à reconstruire l’évolution de l’acidité (pH) et de la chimie des carbonates de l’océan.

Ils caratérisent également la capacité d’organismes comme les coraux à former leur squelette calcaire et donc leur résilience face à la transformation de leur habitat. Ainsi, les chercheurs mesurent-ils la teneur isotopique en bore 11 (rapport 11B/10B) et des teneurs en bore et en calcium (B/Ca) dans l’aragonite constituant le squelette d’une colonie de corail. Ces mesures leur permettent de déterminer les propriétés physico-cimiques du fluide interne de calcification qui régulent la croissance et le développement des coraux.

Pour y parvenir, il est nécessaire de mesurer à quelques 0,1 ‰ près la composition isotopique du bore dans les coraux et l’eau de mer et pour cela, de disposer de carbonates ou de solutions de référence parfaitement caractérisées.

Le LSCE a participé récemment à deux exercices de comparaison inter-laboratoires. Les chercheurs ont déterminé avec une très grande précision les teneurs en isotopes 11B et 10B de deux carbonates standard internationaux (corail et bivalve), régulièrement utilisés dans les laboratoires et ont également caractérisé de nouvelles solutions standard (corail et foraminifère) du National Institute of Standards and Technology, qui seront prochainement disponibles pour la communauté scientifique.

Ces travaux démontrent la qualité des mesures réalisées par les experts du LSCE sur des isotopes du bore dans les archives naturelles par spectrométrie de masse à source Plasma MC-ICPMS Neptune.

Depuis, les standards NIST caractérisés par ces exercices de comparaison inter-lab sont disponibles sur le marché :

https://www-s.nist.gov/srmors/quickSearch.cfm?srm=8301

Références :

Gutjahr M., Bordier L., Douville E., Farmer J., Foster G.L., Hathorne E.C., Hönisch B., Lemarchand D., Louvat P., McCulloch M., Noireaux J., Pallavicini N., Rae J.W., Rodushkin I., Roux P., Stewart J.A., Thil F. and You C.‐F. (2020) Sub‐Permil Interlaboratory Consistency for Solution‐Based Boron Isotope Analyses on Marine Carbonates. Geostandards and Geoanalytical Research. doi: 10.1111/ggr.12364

Stewart J.A., Christopher S.J., Kucklick J.R., Bordier L., Chalk T.B., Dapoigny A., Douville E., Foster G.L., Gray W.R., Greenop R., Gutjahr M., Hemsing F., Henehan M.J., Holdship P., Hsieh Y.‐T., Kolevica A., Lin, Y.‐P. Mawbey E.M., Rae J.W., Robinson L.F., Shuttleworth R., You C.‐F., Zhang S. and Day R.D. (2020) NIST RM 8301 Boron Isotopes in Marine Carbonate (Simulated Coral and Foraminifera Solutions): Inter‐laboratory δ11B and Trace Element Ratio Value Assignment. Geostandards and Geoanalytical Research. doi: 10.1111/ggr.12363

Contact : Éric Douville (LSCE)

15 janvier 2021

Le coton est un produit apprécié et son commerce est connu depuis l’Antiquité. Mais l’origine géographique du coton trouvé en contexte archéologique reste difficile à préciser. Une étude, publiée dans la revue Scientific Reports le 11 janvier 2021 par des chercheur.e.s du Muséum national d'Histoire naturelle, du CNRS et du CEA montre que la composition isotopique en strontium du coton peut être utilisée comme traceur des échanges commerciaux durant l’Antiquité. Les analyses, qui portent sur du coton antique mis au jour dans le sud-est de l’Arabie, indiquent une origine non locale, probablement en provenance du sous-continent indien. Ces résultats attestent de la diffusion précoce de la plante, qui sera ensuite cultivée de manière extensive dans des oasis locales, et finalement à travers le monde. 

La péninsule arabique est située au carrefour de plusieurs régions géographiques : l'Afrique orientale, le sous-continent indien, le Proche-Orient et la Méditerranée. Grâce à cette position stratégique, l'Arabie, par ses habitants, ses navigateurs et ses marchands, a contribué à la diffusion des espèces animales et végétales depuis la préhistoire. Cependant, les liens étendus avec les sphères commerciales indiennes et africaines rendent complexe la reconstitution des trajectoires de diffusion des plantes en Arabie dans l'Antiquité. Le coton (Gossypium sp.), une plante d'origine tropicale et subtropicale, apparaît sur plusieurs sites de la péninsule arabique au tournant du 1er millénaire avant l'Ère Commune (EC) et sa diffusion dans cet environnement aride et non indigène est un marqueur des dynamiques d’échange à ce moment crucial de l'histoire de l'humanité. Deux questions clés restent en suspens : 1) la provenance, c'est-à-dire l'origine locale ou importée du coton 2) le moment précis de l'arrivée et de sa propagation.

Le site antique de Mleiha, situé dans la péninsule d'Oman (aujourd'hui Émirats arabes unis), est un cas rare et significatif où de riches vestiges archéobotaniques (graines et tissus en coton) datant de la fin de la période préislamique (IIe-IIIe siècle EC) ont été très bien conservés dans un bâtiment fortifié grâce à un incendie. Pour mieux comprendre le commerce et/ou la production initiale du coton dans cette région, les isotopes de strontium des restes de coton sont utilisés comme un puissant traceur. Les résultats d’une étude parue dans Scientific Reports le 11 janvier 2021 indiquent que ces restes ne provenaient pas de la péninsule d'Oman, mais plus probablement de régions plus éloignées, la côte nord-ouest de l'Inde étant une provenance isotopiquement compatible. Cette hypothèse est étayée par des preuves archéologiques et textuelles de l'existence de centres de production de coton dans certaines régions indo-pakistanaises durant l’Antiquité. Ces faisceaux d’indice indépendants montrent que le commerce maritime à longue distance entre la péninsule d'Oman et l'Inde occidentale était bien établi à cette époque. La présence de ces textiles non locaux et des graines trouvées sur place suggère également que la culture du coton dans les oasis voisines n'était pas encore une pratique courante, ou du moins qu'elle en était à ses débuts.

Source : Actualité du CNRS/INEE du 15 janvier 2021

15 janvier 2021

Créé en 2015, le réseau indépendant d'experts du climat et de l'environnement en Méditerranée (MedECC ou Mediterranean Experts on Climate and environmental Change) a publié son premier rapport d’évaluation MAR1 (Mediterranean Assessment Report), assorti d’un résumé pour décideurs. Cette publication lui a valu le Prix Nord-Sud 2020 du Conseil de l'Europe. Zoom sur les écosystèmes, chapitre dont un chercheur du LSCE est « lead author ».

Bordée de régions densément peuplées, la mer Méditerranée est un bassin semi-fermé et pauvre en éléments nutritifs, qui subit une pression anthropique particulièrement forte.

Depuis le début des années 1980, les températures moyennes de surface ont augmenté sur l’ensemble du bassin de +0,29 à +0,44 °C par décennie – plus fortement dans à l’est, en Adriatique, en Egée, au Levantin et au nord-est de la mer Ionienne – et les vagues de chaleur marines sont devenues plus longues et plus intenses.

Au cours du 21e siècle, les eaux de surface pourraient se réchauffer de 2,7°C à 3,8°C pour le scénario RCP8.5 et de 1°C à 2,1°C pour RCP4.5. Il est probable que les vagues de chaleur marines s’étendront dans l’espace et seront plus longues, plus intenses et plus sévères qu’aujourd’hui.

Du fait qu’elle est plus alcaline et que ses eaux profondes sont plus rapidement ventilées, la Méditerranée peut absorber relativement plus de CO2 d’origine anthropique par unité de surface que le système océanique mondial. Depuis le début du 19e siècle, le pH de ses eaux de surface a diminué de 0,08 unités, à l’image du système océanique mondial, tandis que l’acidification de ses eaux profondes est supérieure à la moyenne globale.

Plusieurs scénarios prévoient une stratification des eaux en couches horizontales, en raison du réchauffement des eaux de surface. Celle-ci réduira les apports nutritifs par mélange vertical, induisant une baisse de la production primaire qui deviendra encore plus sensible aux apports nutritifs externes : par le détroit de Gibraltar pour le bassin occidental et par les rivières pour le bassin oriental.

Les conditions climatiques et biogéochimiques induites par les activités humaines (réchauffement, acidification et pollution de l’eau), auxquels s’ajoutent les pratiques de pêche non-durables, l’invasion d’espèces non-indigènes, menacent la production alimentaire marine. Elles peuvent affecter la répartition des espèces et engendrer, d’ici à 2050, une extinction locale de plus de 20 % des poissons et invertébrés marins, et une perte générale de la biodiversité due à l’altération physiologique et écologique de la plupart des organismes marins.

Il reste possible d'atténuer ces impacts en améliorant la conservation à l’intérieur et au-delà des aires marines protégées, et en recourant à des pratiques de pêche plus durables.

13 janvier 2021
Challenge: How to simulate 100 millennial heatwaves at the cost of 100 simulations?

Nudging a stochastic weather generator based on atmospheric circulation analogs towards high local temperatures [here temperature average between Madrid, Toulouse, Orly, De Bilt and Berlin], to obtain the warmest summers that could be, starting on a June 1st and the armest summers that could be, with a weather patterns that are similar to observations. This is a proof of concept of a methodology to simulate unprecedented events, by resampling observations. We performed application to simulate a worst case scenario (warm December then wet spring) leading to low crop yield.

References:

[1] Yiou, P. and Jézéquel, A.:, Geosci. Model Dev., 13, 763–781, https://doi.org/10.5194/gmd-13-763-2020,  2020.

[2] Pfleiderer, P., Jézéquel, A., Legrand, J., Legrix, N., Markantonis, I., Vignotto, E., and Yiou, P.: Earth Syst. Dynam. Discuss., https://doi.org/10.5194/esd-2020-32, 2020.

 

Authors:

YIOU Pascal (LSCE-IPSL, CNRS),  JEZEQUEL Aglaé

 

13 janvier 2021

La COVID-19 affecte actuellement la totalité de pays du monde et fait peser de graves menaces sur la santé publique ainsi que sur la stabilité économique et sociale. Modéliser et extrapoler en temps quasi réel l'évolution de l'épidémie du COVID-19 est un défi scientifique, qui nécessite une compréhension approfondie des non-linéarités qui minent la dynamique des épidémies. Dans un premier article [1], nous montrons que les prédictions en temps réel des infections COVID-19 sont extrêmement sensibles aux erreurs de collecte de données et dépendent essentiellement du dernier point de mesure disponible. Nous testons ces idées dans des modèles statistiques (logistiques) et dynamiques (Susceptible-Exposed-Infected-Recovered) qui sont largement utilisés pour prévoir l'évolution de l'épidémie de COVID-19. Notre objectif a été de montrer comment les incertitudes résultant à la fois de la mauvaise qualité des données et des estimations inadéquates des paramètres du modèle (taux d’incubation, d’infection et de récupération) se propagent aux extrapolations à long terme du nombre d’infections. Cette connaissance nous a permis de réaliser quelques scenarios de propagation du COVID19 où, même avec des grandes incertitudes, la menace d'une deuxième vague etait bien détectable déjà au printemps 2020 [2].

Références de publication :

[1] Faranda et al. Chaos 30, 051107 (2020); https://doi.org/10.1063/5.0008834

[2] Faranda et al. Chaos 30, 111101 (2020); https://doi.org/10.1063/5.0015943

Articles de presse  associés:

  • Modeling COVID-19 data must be done with extreme care, Science Daily [Anglais]   
  • Modeling COVID-19 data must be done with extreme care, scientists say, Phys.org [Anglais] 
  • Coronavirus, il ricercatore italiano: "Ho perso mio nonno, ora studio i modelli dell'epidemia, Repubblica.it [Italien]
  • ¿Qué se puede hacer para mejorar los modelos de la COVID-19? , SINC.es [Espagnol]  

Auteurs:

FARANDA Davide (LSCE-IPSL, CNRS), ALBERTI Tommaso, PÉREZ CASTILLO Isaac, HULME Oliver, JEZEQUEL Aglaé, LAMB Jeroen, SATO Yuruzu, and THOMPSON Erica

 

 

11 janvier 2021
Conférence à l'Observatoire de Versaille - St-Quentin-en-Yvelines (OVSQ), 18/12/2020

La prise de décision sur les impacts du changement climatique implique la prise en compte des éléments imprévus ou imprévisibles. L'expertise du GIEC s'appuie essentiellement sur des métriques de robustesse des prévisions et de consensus. Or, les intervalles d'incertitude et les indices de confiance sont intrinsèquement incapables de rendre compte de la complexité des incertitudes, en particulier en présence de controverses, de risques imprévus ou à prévisibilité non évaluable. La montée du niveau marin permettra d'illustrer ces déficiences et de proposer des méthodes complémentaires, conformes au principe de précaution et mieux à-même de protéger économies et populations.


 

11 janvier 2021
Conférence des vendredis de l'OVSQ, 8 janvier 2021

Le changement climatique en cours touche d'ores et déjà notre pays et va accentuer les aléas extrêmes comme les tensions récurrentes de façon croissante au cours des prochaines décennies. Un bilan du changement climatique en cours sera présenté, singulièrement à l'échelle de notre pays, avant de parcourir les perturbations des aléas climatiques auxquels nous pourrions être soumis. Les impacts toucheront fortement l'environnement et affecteront toutes les activités humaines, notamment l'agriculture mais aussi l'habitabilité de certaines régions.

Retour en haut