dimanche 30 septembre 2018

Les émissions humaines de CO2 seraient responsables de la tendance au réchauffement et à la désoxygénation des eaux profondes qui pénètrent dans le golfe du Saint-Laurent

Le 17 septembre 2018, j'ai cosigné avec six de mes collègues un article dans la revue scientifique Nature Climate Change1. Avec la publication de cet article, nous avons franchi une étape importante dans notre compréhension des mécanismes impliqués dans la forte tendance à la hausse de la température de l'eau et la forte tendance à la baisse de la teneur en oxygène dissous observées dans les eaux profondes qui pénètrent dans le golfe du Saint-Laurent2.

Conclusion principale de l'article: En comparant deux expériences de simulation par ordinateur de l'évolution du climat, avec et sans augmentation des concentrations atmosphériques de CO2, nos résultats montrent un rapide réchauffement et une rapide désoxygénation des eaux profondes du golfe du Saint-Laurent seulement dans la simulation du climat AVEC une augmentation du CO2. Dans la simulation du climat SANS augmentation de CO2, la température de l'eau et sa teneur en oxygène ne subissent que des variations naturelles vers le haut ou vers le bas qui ne durent que quelques années avant de se renverser, sans tendance nette à long terme. Un lien de cause à effet a ainsi pu être démontré entre l'augmentation des émissions humaines de CO2 dans l'atmosphère d'une part, et le réchauffement et la désoxygénation des eaux profondes qui pénètrent dans le golfe du Saint-Laurent d'autre part.

Une initiative de partage de contenu scientifique mise en place par Springer Nature, SharedIt, permet à quiconque de visualiser gratuitement à l'écran une version intégrale de notre article en cliquant sur cet hyperlien: Rapid coastal deoxygenation due to ocean circulation shift in the northwest Atlantic.

Dans une étude précédente publiée en 20052, nous avions patiemment colligé un ensemble d'observations historiques de température, salinité et oxygène dissous allant de 1932 à 2003. Ceci nous avait permis de décrire les changements dans les masses d'eaux profondes du golfe du Saint-Laurent (réchauffement, salification, désoxygénation), mais nous n'étions pas en mesure d'expliquer les phénomènes observés, ce que fait maintenant la nouvelle étude1.

Teneurs actuelles en oxygène dissous

Afin de bien interpréter les conséquences de ces nouveaux résultats, il est important de commencer par bien décrire les teneurs actuelles d'oxygène dissous dans le golfe du Saint-Laurent.

La carte géographique ici-bas montre les teneurs en oxygène dissous près du fond (moins de 10 m au-dessus du fond marin local) dans l'ensemble du golfe du Saint-Laurent.
Explication de l'échelle de couleur  100% de saturation en oxygène correspond à la teneur en oxygène dissous pour laquelle la couche supérieure de l'océan qui est en contact direct avec l'atmosphère se trouve en équilibre d'échange gazeux avec l'atmosphère: c'est à dire qu'un nombre égal de molécules d'oxygène quitte l'océan en direction de l'atmosphère ou encore est absorbé par l'océan en provenance de l'atmosphère. Un taux de 50% de saturation en oxygène signifie que ces eaux marines ont perdu la moitié de la concentration d'oxygène qu'elles avaient originalement au moment où elles ont cessé d'être en contact direct avec l'atmosphère et se sont mises à descendre plus en profondeur. Un taux de 20% de saturation en oxygène signifie quant à lui que 80% de l'oxygène dissous a déjà été consommé par la respiration animale ou les processus de décomposition de la matière organique par les bactéries présentes dans la colonne d'eau.

Cette carte du golfe du Saint-Laurent montre que les taux de saturation en oxygène sont généralement supérieures à 50% aux endroits où la profondeur du fond est d'environ 150 m ou moins. Ces endroits sont relativement bien oxygénés actuellement. Aux profondeurs supérieures à 200 m, les taux de saturation en oxygène près du fond sont supérieurs à 50% dans la région du détroit de Cabot, mais se dégradent ensuite au fur et à mesure que nous nous déplaçons en direction de la tête des trois chenaux profonds du golfe du Saint-Laurent: le chenal Laurentien, le chenal Esquiman et le chenal Anticosti.


Une coupe verticale de la colonne d'eau le long du chenal Laurentien, entre Tadoussac à l'ouest et le détroit de Cabot à l'est, nous aide à se faire une meilleure représentation mentale en trois dimensions des teneurs en oxygène. Les chenaux Esquiman et Anticosti présentent une structure verticale similaire à celle du chenal Laurentien. Entre la surface de l'eau et 100 m de profondeur, les teneurs en oxygène dissous sont supérieures à 60% de saturation tout au long du chenal Laurentien. En revanche, à 250 m de profondeur, nous notons que les eaux s'appauvrissent graduellement, passant d'environ 50% de saturation au détroit de Cabot pour descendre sous la barre des 20% près de Tadoussac.
La nouvelle étude suggère que la baisse d'oxygène observée autour de 250 m de profondeur va probablement continuer au cours des prochaines décennies en raison de la poursuite de l'augmentation de la concentration de CO2 dans l'atmosphère, et ce malgré de possibles courtes périodes de hausses passagères dues à la variabilité naturelle.

Conséquences écologiques

Nous nous attendons à ce que les eaux moins profondes que 100 m demeurent bien oxygénées dans le futur et qu'elles continuent de supporter une vie marine diversifiée. Compte tenu des patrons actuels de teneurs en oxygène, les zones qui présentent les plus grands risques de perte de biodiversité dans le futur en raison de baisses d'oxygène sont les têtes des chenaux Laurentien, Esquiman et Anticosti aux profondeurs supérieures à 150 m.

Les espèces animales marines possèdent une très large gamme de niveaux de tolérance aux basses teneurs en oxygène dissous3. Par exemple, la morue est généralement absente des régions où la teneur en oxygène dissous près du fond tombe sous la barre de 30% de saturation. Le loup tacheté possède un seuil de tolérance également situé autour de 30% de saturation. D'autres espèces sont mieux adaptées au manque d'oxygène que la morue et le loup tacheté, pouvant tolérer des teneurs en oxygène dissous de 15%, 10% ou même 5% de saturation.

Toutefois, l'absence totale d'oxygène (anoxie) est incompatible avec les formes dites avancées de vie marine, car la respiration anaérobie est beaucoup moins efficace que la respiration aérobie pour extraire de la nourriture ingérée l'énergie nécessaire au maintien de la vie. Grosso modo, la respiration en présence d'oxygène peut fournir jusqu'à 19 fois plus d'énergie que la respiration en absence d'oxygène. On comprend ainsi mieux pourquoi la présence d'oxygène est si cruciale pour le maintien de la vie animale marine.


Prochaines étapes

L'étude de simulation du climat que nous venons de publier1 a requis neuf mois de calculs continus sur un superordinateur doté de 10,000 nœuds de calculs. L'outil de modélisation employé pour représenter les interactions entre l'océan, l'atmosphère et la glace sur l'ensemble de la planète Terre ne peut toutefois pas prendre en compte tous les processus physiques et biogéochimiques connus. Par exemple, le modèle informatique employé n'incluait pas les flux de nutriments (nitrates, phosphates) et de matière organique livrés à l'estuaire et au golfe du Saint-Laurent par le fleuve Saint-Laurent et d'autre rivières.

Un bilan exhaustif des flux de nitrates, phosphates et matière organique en provenance du fleuve Saint-Laurent est maintenant disponible4. Une évaluation plus complète de l'ensemble des facteurs susceptibles d'influencer les concentrations d'oxygène dans l'estuaire et le golfe du Saint-Laurent devra en tenir compte. Une équipe est déjà à l'oeuvre pour mettre au point un modèle régional de simulation du golfe du Saint-Laurent qui inclura les charges de nutriments et matière organique du fleuve Saint-Laurent et qui inclura aussi des processus physiques et biogéochimiques qu'il n'était pas possible d'inclure dans un modèle mondial. À suivre dans quelques années...

Entrevues nationales canadiennes

2018-09-21 Interview with Bob McDonald of CBC Quirks & Quarks

2018-09-23 Entrevue avec Sophie-AndréeBlondin, Les années lumière, Radio-Canada (aller à 12h27)

2018-10-05 Interview with Holly Lake, iPolitics 

Notes:

1 Claret, M., Galbraith, E.D., Palter, J.B., Bianchi, D., Fennel, K., Gilbert, D. and Dunne, J.P., 2018. Rapid coastal deoxygenation due to ocean circulation shift in the northwest Atlantic. Nature Climate Change, 8, 868-872. doi: 10.1038/s41558-018-0263-1

2 Gilbert, D., Sundby, B., Gobeil, C., Mucci, A. and Tremblay, G.-H., 2005. A seventy-two-year record of diminishing deep-water oxygen in the St. Lawrence estuary: The northwest Atlantic connection. Limnol. Oceanogr., 50: 1654-1666. doi: 10.4319/lo.2005.50.5.1654

3 Ekau, W., Auel, H., Portner, H.-O, & Gilbert, D., 2010. Impacts of hypoxia on the structure and processes in pelagic communities (zooplankton, macro-invertebrates and fish). Biogeosciences7, 1669-1699. doi: 10.5194/bg-7-1669-2010

4 Hudon, C., Gagnon, P., Rondeau, M., Hébert, S., Gilbert, D., Hill, B., Patoine, M. & Starr, M., 2017. Hydrological and biological processes modulate carbon, nitrogen and phosphorus flux from the St. Lawrence River to its estuary (Quebec, Canada). Biogeochemistry, 135: 251-276. doi: 10.1007/s10533-017-0371-4

mercredi 22 août 2018

Book review: Lost in math - How beauty leads Physics astray

Sabine's book surrounded by beauty.

Backreaction blog

In May 2017, I ran across an intriguing Physics paper1 that claimed to explain the observed value of the cosmological constant using ingredients drawn from the theories of general relativity and quantum mechanics. This paper had garnered a large amount of public attention, and I thought it would be fun to read through it and then report back on the paper's main findings to the "Club d'astronomie de Rimouski", of which I am a member. This paper was outside my field of expertise (physical oceanography), filled with mathematical notations that I was not familiar with, so that I quickly felt the need to look for a critical assessment of it by a physicist specialized in cosmology. Google searches eventually led me to a Backreaction blog post2 by Sabine Hossenfelder. Her post contained a healthy mixture of positive and more critical comments about this 'hot off the press' paper proposing an explanation for the cosmological constant. I immediately liked Sabine's direct, funny, honest writing style and began following her on Twitter.

Now fast forward one year, and I end up purchasing a copy of Sabine's very first book3, in which she explores some of the difficulties encountered in contemporary theoretical physics, especially in the areas of elementary particle physics and cosmology.

The standard model of particle physics

In 2012, the joint discovery of the Higgs boson by two teams of experimental physicists at the Large Hadron Collider (LHC) in Geneva provided conclusive evidence for the 25th of the 25 particles of the standard model of particle physics, whose development began in the 1960s and was largely completed in the 1970s. In the standard model, the Higgs boson's task is to give mass to some (but not all) of the 24 other standard model particles. Physicists were confident they would eventually find the Higgs boson, but were lacking theoretical guidance as to what its mass (and energy, through Einstein's E = mc2) should be.

Ever since the LHC was built, many physicists were also hoping to discover new physics and observe new types of particles beyond the 25 particles of the standard model. In fact, several physicists were so confident that new supersymmetry particles would soon be found at LHC that they placed a bet on it. But in 2016, those who won the bet (a bottle of cognac was at stake) were the ones who predicted the absence of supersymmetry particles at the LHC4.

One the main reasons for which so many physicists were convinced the LHC would reveal new particles beyond the standard model comes from the current "state-of-the-art" mass and energy budget of the observable Universe.

Cosmology

The best fit of observations of the cosmos to the mathematics of Einstein's general relativity are consistent with a worldview in which 'dark energy' constitutes 68.3% of the total matter-energy budget of the Universe. Astronomers' measurements indicate that the remaining 31.7% is made up of matter, which physicists further break down into two categories: 'dark matter' (26.8%) and ordinary matter (4.9%). While ordinary matter is made up of the 25 particles of the standard model of physics, the fundamental nature of dark matter remains a mystery, though theories abound as to possible candidates that would only very weakly interact with ordinary matter. And some of those theories predict that we should already have seen dark matter particle candidates at the collision energies that have been achieved at the LHC, but we have not. So what gives? Sabine largely blames theoretical physicists' biases and preferences for mathematical theories that they find simple, elegant and beautiful.

Beauty - not always a good guide in physics

Beauty is an acquired taste that involves cultural values as well as one's lifelong training and interests. Throughout their professional careers, most theoretical physicists have acquired a sense of beauty for mathematics that they find elegant, simple, and, well, beautiful...

Trouble is, simplicity does not always win. Planets' orbits around the sun would be simpler if they were perfectly circular, but observations show they are rather elliptical. 

I am a physicist, but am not a specialist in either particle physics or cosmology. I specialized in the physics of Earth's ocean and atmosphere. Consequently, I am in no position to judge on the adequacy of supersymmetry or string theory, of which I frequently hear about or read about in popular science TV shows or magazines. 

As we read "Lost in Math", we follow globetrotter Sabine as she goes from place to place to discuss about cutting-edge fundamental physics with renowned physicists, including a few Nobel prize winners. She interacts with them, asking for their views as to why we have not yet seen evidence of particles beyond the standard model at the LHC and other ongoing experiments. She also asks questions that help clarify what each physicist personally considers beautiful. To which Steven Weinberg famously replied that a good horse breeder can immediately recognize a beautiful horse when he sees one!

Large experiments such as the LHC are very expensive, and generally require many years to plan and build. Therefore, the time lag between developing and testing hypotheses has grown very large over the past 30 to 40 years. In the absence of experimental data, how are we then supposed to decide which theoretical predictions are most worthy of eventually being tested in often expensive experimental setups? On which criteria should we judge untested theories? Sabine leaves this question unanswered, but opines that the beauty and elegance of mathematical theories can be a very poor guide and often has no connection whatsoever with physical reality.

I recommend "Lost in Math" to anyone interested in fundamental science and epistemology, because many of the issues raised in the book go much beyond physics. Sabine calls for a renewed dialogue between scientists and philosophers, and recalls us that physics is not math. Physics is choosing the right math. And for that to happen, observational guidance remains necessary.



Notes

  1. Wang, Q., Zhu, Z., Unruh, W.G. 2017 How the huge energy of quantum vacuum gravitates to drive the slow accelerating expansion of the Universe. Phys. Rev. D 95:103504. Arxiv:1703.00543 [gr-qc]
  2. Hossenfelder, S. 2017. Does parametric resonance solve the cosmological constant problem? Backreaction, May 31, 2017. 
  3. Hossenfelder, S. 2018. Lost in Math: How Beauty Leads Physics Astray. Basic Books. New York, USA. 291p.
  4. Wolchover, N. 2016. Supersymmetry bet settled with cognac. Quanta Magazine, August 22, 2016.






mardi 17 juillet 2018

Chevy Volt 2015 gas consumption statistics for the Canadian winter

I am a climate scientist, not a car specialist.

In February 2015, after giving a scientific seminar on global warming, I asked myself what little step I could personally take to reduce my carbon footprint.

This started a month-long process of diligently doing my homework in terms of
  1. Thinking what my needs were with respect to my daily commute to work and occasional longer trips for family visits or vacation.
  2. Taking into account the reduction in electric range due to the very cold winters of eastern Québec, Canada.  See my post on Canadian winter temperatures and EVs (written in French).
  3.  Looking at all the battery electric vehicles and plug-in hybrids that were available in Québec at the time and that I could afford (this did not include the Tesla model S...).
On March 27, 2015, I ended up purchasing a Chevy Volt (first generation, model year 2015), with the following specifications:
  • Battery: 17.1 kWh
  • Electric range: 61 km
  • Extended range (gasoline): 600 km
  • Combined city/highway gas consumption: 6.4 L/100 km
Well, you know, specs are just that, specifications.

From Day 1, I decided that at each gas filling, I would carefully note both the number of litres of gasoline purchased and the car's odometer reading.

On March 27, 2018, exactly three complete years after the car's purchase, I filled my Volt's gas tank and decided I would report my statistics on the web for others to look at and learn whatever lessons they have to learn from these statistics.

So here we go. Below is a graphical summary of my 2015 Chevy Volt's gas consumption statistics over 3 complete annual cycles.

Over these three FULL years, the average gas consumption was 2.3 litres per 100 km (2.3 L/100 km). For comparison, the car I previously owned (Honda Fit 2009) had a combined city/highway/summer/winter gas consumption of 6.5 L/100 km.

Mission accomplished: by purchasing a plug-in hybrid electric vehicle (PHEV), I actually reduced my gasoline consumption by a whooping 65%! 😊


Interpretation of graphic
  • the horizontal red bars represents the seasonal median (50th percentile) gas consumption rates, so that 50% of the time, the gas consumption rate was higher than the red bar, and it was lower 50% of the time for each of the four seasons.
  • The lower blue horizontal bars represents the 25th percentiles
  • The upper blue horizontal bars represents the 75th percentiles
  • The small red dots represent individual gas fill-ups that are either below the 25th percentile or above the 75th percentile.
The lowest gas consumption rate is found in summer (1.3 L/100 km), whereas the highest gas consumption rate occurs in winter (4.0 L/100 km). Intermediate values of gas consumption rates are observed during spring (2.5 L/100 km) and fall (2.1 L/100 km).

To gain some insight as to why gas consumption rates are much higher in winter than in summer, it is useful to look at the details of my daily commute from home to work. A one-way trip is 38.5 km, and a two-way trip from home to work and then back home is 77 km. Unfortunately, there is no charging station at my workplace, so that I can only charge my car at home.

During the summer, I usually DO get the 61 km of electric range advertised in the Chevrolet specifications. In fact, I often get more than 65 km of electric range, and sometimes get over 70 km of zero emission car driving. On five daily commutes over this 3-year period, I managed to squeeze 77 km of electric range out my car and was able to park the Volt in my driveway without burning any gasoline! In the graphic below, the dashed blue line indicates that gasoline may or may not be needed for the last 20 kilometres of my summer ride back home.

In the winter, the lithium-ion batteries are not as efficient. Roughly speaking, the reduction in electric range is about 10% to 20% around 0°C, but can get as bad as 50% below -20°C.  Over three full winters, I have found that depending on outside temperatures, wind and snow conditions, the Volt's 1stGen electric range can vary between about 30 km and 50 km (dashed green line below). Gasoline may or may not be required over this 30 to 50 km portion of my return trip (dashed blue line below), but will always be needed over the last 27 km of my ride back home (continuous blue line below).
In a nutshell, the two above graphics schematically explain why gas consumption rates are much higher in winter than in summer for my Chevy Volt 2015.

Someone else's situation will be different from mine with respect to
  1. distance from home to work
  2. availability (or not) of a charging station at work
  3. climatic conditions
  4. model year; Chevy Volt's electric range increased to 85 km in 2016.

1335 km-long winter trip with Chevy Volt with temperatures below 20°C.

Advocates of plug-in hybrid electric vehicles (PHEVs), of which I am, like to say that PHEVs represent a really interesting compromise. PHEVs allow one to dramatically cut gasoline consumption (hence reducing CO2 emissions) while at the same time providing peace of mind by completely eliminating electric range anxiety.

During the 2017 Christmas holiday, we drove our Chevy Volt on a 1335 journey with several stopovers to visit family and friends in the province of Québec. This family trip coincided with a polar vortex southern excursion that saw air temperatures plunging between -20°C and -25°C for the entire 4-day duration of our trip. I only drove 35 km on electric range. The remaining 1300 km were driven on gasoline power, and they explain the three red dots indicating gas consumption rates above 6.4 L/ 100 km in the topmost graphic of this post. The Volt passed the cold Canadian winter test with flying colours!




Epilogue

I think it's both important and urgent that we all reduce our carbon dioxide (CO2) and methane emissions in order to slow down global warming and minimize sea level rise and other adverse impacts of global warming on coastal infrastructure and ecosystems.

For most citizens, the most concrete action they can take in their personal lives in order to reduce CO2 emissions is to purchase a low-CO2 emissions car when the time comes to buy their first car or to  replace their current vehicle.

In the province of Quebec, Canada, the average lifetime of a car is 15 years. Over that time period, this average car will have travelled some 300,000 kilometres. Imagine reducing your CO2 emissions by 65% or more over this 15-year time frame, and telling your grand-children that you did your share in the collective efforts to avoid runaway greenhouse warming! 

dimanche 25 février 2018

Véhicule électrique et froid hivernal - bien choisir son modèle 2018 en tenant compte des hivers au Québec

Chaque hiver au Québec, des vagues de froid font plonger les températures de l'air sous la barre des -20°C.  Or l'expérience de nombreux conducteurs Québécois indique que l'autonomie d'un véhicule électrique peut diminuer jusqu'à 50% de sa valeur nominale lors de froids très intenses (entre -20°C et -30°C). Afin d'éviter les mauvaises surprises et de craindre de tomber en panne au cours de l'hiver, il est donc crucial de bien tenir compte de cet aspect incontournable du climat du Québec.


La station météorologique située à l'aéroport de Mont-Joli, située à moins de 10 km de mon lieu de travail (Institut Maurice Lamontagne), a permis de recueillir des données de température de l'air depuis 1875. Vers la fin du 19ème siècle et au début du 20ème siècle, on observait parfois jusqu'à 50 journées par année plus froides que -20°C. Dans le passé plus récent, on a observé une trentaine de journées plus froides que -20°C de 1991 à 1994 et 22 telles journées en 2015. Étant donné la durée de vie moyenne d'un véhicule qui est d'environ 15 ans, il paraîtrait donc prudent de s'attendre à jusqu'à une vingtaine de journées très froides par hiver au cours desquelles l'autonomie de votre véhicule électrique pourrait être réduite jusqu'à 50% de sa valeur nominale.


Le graphique ci-haut montre trois lignes obliques ainsi que l'autonomie des 12 véhicules entièrement électriques (lignes verticales pointillées) qui sont inclus dans la brochure Branchez-vous 2018, produite par l'Institut du véhicule innovant.

La ligne noire indique l'autonomie EPA telle qu'annoncée par le fabriquant selon les normes de l'Agence de Protection Environnementale Américaine (U.S. EPA). C'est l'autonomie à laquelle vous pouvez vous attendre en été (sans climatisation) sur un terrain plat et en respectant les limites légales de vitesse en ville et sur l'autoroute.

La ligne bleue indique une réduction de moitié de l'autonomie (EPA/2) lors de froids très intenses (-20°C à -30°C). Il s'agit d'une estimation approximative de la distance totale que vous pouvez parcourir lors de ces froids extrêmes en fonction de chaque modèle d'automobile.

Au cas où vous utiliseriez votre voiture électrique pour effectuer un aller-retour entre votre maison et une destination (exemple: lieu de travail) ne disposant PAS de borne de recharge électrique par une journée de très grand froid (-20°C à -30°C), il conviendra alors de veiller à ce que la distance aller simple séparant votre maison de votre destination n'excède pas la ligne rouge (EPA/4).



vendredi 5 janvier 2018

Ocean ventilation: oxygen pathways from the ocean's surface to the ocean's interior

As land-dwelling animals, we breathe plentiful oxygen from the atmosphere, except perhaps if we are climbing a high mountain summit where oxygen is more scarce. But ocean-dwelling animals are often not as fortunate as we are when it comes to oxygen abundance.  

To begin with, oxygen as a gas is NOT easily dissolved in water. Though a liter of seawater weighs nearly 1000 times more than a liter of air, that very same liter of water contains about 40 times less oxygen than one liter of air (0.008 g versus 0.3g). 


But things can get much worse than this, because below the surface layer, oxygen can litterally go down to zero. At 300 m depth, vast expanses of the ocean contain a very small percentage of the amount of  oxygen these same waters contained when they were last found at the sea surface, in direct contact with the atmosphere. This percentage gets very close to zero in the northern Indian Ocean and the eastern equatorial Pacific, and actually reaches zero in the Black Sea.

You may ask yourself why oxygen can get so scarce in the ocean interior. The ocean’s surface mixed layer is well oxygenated because of photosynthesis and gas exchange with the atmosphere. But below the sunlit surface layer, there is no photosynthesis and no direct gas exchange with the atmosphere. Oxygen must then be carried away by ocean currents from the regions of the ocean where subtropical mode waters, intermediate waters, or deep waters are formed, towards the ocean interior. The main regions of the surface ocean that export recently ventilated and oxygenated waters to the ocean interior are shown below.   


Waters of a given density (isopycnal) within the permanent thermocline of the subtropical gyres are ventilated at the latitude where that isopycnal intersects the base of the surface mixed layer during the winter. At the end of each winter, waters near the base of the mixed layer subduct into the ocean interior, and then begin to slowly diffuse equatorward. This ventilation process is particularly intense in the high latitude range of the subtropical gyres, where subtropical mode waters (STMW) and subantarctic mode waters (SAMW) are formed This process ventilates subtropical gyres to depths of about 500 to 900m.  

In the Southern Ocean, a surface convergence zone between about 50°S and 60°S causes local sinking of surface waters and the formation of Antarctic Intermediate Water (AAIW) which ventilates water depths between about 700 and 1200m. The Southern Ocean is also home to the formation of the densest water mass of the world ocean, Antarctic Bottom Water (AABW), formed in areas of intense sea ice freezing and brine rejection around the continent of Antarctica. AABW sinks all the way to the bottom of the three major ocean basins and propagates northward.

In the northern hemisphere, ventilation processes vary quite a lot between the three major ocean basins. The formation of North Pacific Intermediate Water (NPIW) in the mixed water region of the Oyashio and Kuroshio ventilates the upper 300 to 700 meters of the North Pacific subpolar gyre. In the North Atlantic, to the north of the Denmark-Faroe-Shetland ridge, deep convection in the Greenland-Iceland-Norwegian Sea (GINSEA) is the source of Denmark Strait Overflow Water (DSOW) that spills over the Denmark Strait sill (625 m deep) and then descends to the bottom of the North Atlantic. Some of this dense water also flows northward and propagates towards the Arctic Ocean. The Labrador Sea, and to a lesser extent the Irminger Sea, is another important site of deep water formation in the North Atlantic, with convection events reaching up to 2000 m depth. This leads to the formation of North Atlantic Deep Water (NADW) which then propagates southward. The ultimate fate of oxygen-rich NADW is to either 1) upwell into a surface divergence zone of the Antarctic Circumpolar Current; 2) ventilate the Indian Ocean; 3) ventilate the Pacific Ocean.




While ventilation provides new oxygen to the ocean interior, oxygen consumption processes (animal respiration, bacterial degradation of organic matter) remove oxygen from the water column. The rate of oxygen consumption is greatest near the ocean surface, and decreases exponentially with depth. Observed oxygen concentrations in the ocean reflect a fine balance between the ventilation supply mechanisms illustrated here and the oxygen consumption mechanisms. Some ocean regions have very high oxygen consumption rates, such as the Eastern Boundary Upwelling Systems off Peru-Chile or Namibia, and this is where we tend to find the most intense and thick oxygen minimum zones (OMZs).

During the very long journey from its formation region in the northern North Atlantic, NADW remains isolated from the atmosphere and its oxygen content becomes progressively lower as we get further away from its source region. In the Indian and Pacific Oceans, a mixture of NADW and predominantly AABW propagates northwards. No deep water formation takes place in the Pacific and Indian Ocean,  so that they are less well ventilated than the North Atlantic and have lower oxygen content, as can be seen in the South to North sections of the three major ocean basins shown below. 
Projections from Earth System Models that simulate global warming from rising CO2 levels indicate that ventilation processes will likely become more sluggish in the next decades. Ocean scientists believe this would lead to lower oxygen levels in the ocean interior. Recent studies suggest that such reduced ventilation may already be underway. The quicker and the more aggressively we reduce our CO2 emissions, the better it will be from the point of view of oxygen availability in the ocean interior!


Suggested further reading:


Bopp, L., Resplandy, L., Orr, J.C., Doney, S.C., Dunne, J.P., Gehlen, M., Halloran, P., Heinze, C., Ilyina, T., Seferian, R. and Tjiputra, J., Vichi, M., 2013. Multiple stressors of ocean ecosystems in the 21st century: projections with CMIP5 models, Biogeosciences, 10, 6225-6245.

Breitburg, D., Levin, L. A., Oschlies, A., Grégoire, M., Chavez, F. P., Conley, D. J., Garçon, V., Gilbert, D., Gutiérrez, D., Isensee, K., Jacinto, G. S., Limburg, K. E., Montes, I., Naqvi, S. W. A., Pitcher, G. C., Rabalais, N. N., Roman, M. R., Rose, K. A., Seibel, B. A., Telszewski, M., Yasuhara, M. & Zhang, J. 2018. Declining oxygen in the global ocean and coastal waters. Science, 359, 11p.

Gilbert, D., 2017. Oceans lose oxygen. Nature, 542: 303-304.


Gilbert, D., N.N. Rabalais, R.J. Díaz, and J. Zhang, 2010. Evidence for greater oxygen decline rates in the coastal ocean than in the open ocean. Biogeosciences, 7: 2283-2296.


Schmidtko, S., Stramma, L. Visbeck, M. 2017. Decline in global oceanic oxygen content during the past five decades. Nature, 542, 335.

dimanche 31 décembre 2017

Kilonova observée grâce à la détection d'ondes gravitationnelles – mécanisme de création d’or et platine confirmé

Quatre jours avant l'éclipse solaire totale très médiatisée du 21 août 2017 aux États-Unis, un autre événement astrophysique allait voler la vedette et monopoliser secrètement l'attention de 70 équipes internationales d'astrophysiciens.




Suivons le fil chronologique des premières 11 heures de cette histoire palpitante, demeurée secrète pendant deux mois...
    1. T0 = 17 août 2017, 12:41:04 UTC (Temps Universel Coordonné), des ondes gravitationnelles sont détectées en Amérique par le détecteur de LIGO situé à Hanford, dans l'état de Washington. Cody Messick fait partie d'une équipe de premiers répondants au sein de la collaboration LIGO. C'est lui qui était "de garde" à la maison lorsqu'une alerte sur son téléphone cellulaire l'a informé de la détection d'un signal d'ondes gravitationnelles (ensuite baptisé GW170817) qu'il doit inspecter attentivement le plus tôt possible.
    2. T0 + 1.7 seconde: un sursaut d’ondes gamma (ensuite baptisé GRB170817) est détecté par les satellites Fermi et INTEGRAL. 
    3. T0 + 10 à 20 minutes; Cody Messick, en collaboration avec son chef d'équipe et d'autres collègues, confirme que le second détecteur d'ondes gravitationnelles LIGO situé à Livingston en Louisiane a lui aussi détecté le même événement. Plus important encore, les deux détecteurs LIGO ont observé des ondes gravitationnelles d'une durée exceptionnellement longue de 60 secondes. Les cinq détections précédentes d'ondes gravitationnelles avaient duré à peine une seconde et impliquaient toutes des systèmes binaires de trous noirs n'émettant aucune onde électromagnétique. En revanche, la durée de 60 secondes du signal d'ondes gravitationnelles GW170817 laisse déjà fortement présager qu'il s'agit cette fois-ci d'un système binaire d'étoiles à neutrons. Selon les simulations par ordinateur, la fusion de ces deux étoiles à neutrons devrait avoir mené à la création d'une kilonova dont la luminosité devrait être mesurable par une panoplie de télescopes d'ondes électromagnétiques. Le niveau d'excitation et de fébrilité des chercheurs monte alors en flèche, tout comme le taux d'adrénaline dans leur sang...
    4. T0 + 40 minutes; les chercheurs de la collaboration VIRGO, dont le détecteur d'ondes gravitationnelles se trouve à Pise en Italie, confirment eux aussi la détection d'un signal, quoi que beaucoup plus faible que celui observé à Hanford et Livingston.
    5. Immédiatement après cette confirmation, une première alerte de détection d'ondes gravitationnelles est envoyée à 70 équipes d’astrophysiciens. Cette première zone de recherche est très grande: 190 degrés2.
    6. T0 + 4.5 heures; on conclut que la faiblesse du signal d'ondes gravitationnelles observées par VIRGO implique fort probablement que la collision d'étoiles à neutrons s'est produite dans un des angles morts de VIRGO. Cette information a permis de réduire substantiellement l'aire des recherches d'une possible kilonova, la zone de recherches passant ainsi de 190 degrés2 à seulement 28 degrés2. Ceci équivaut à environ 150 fois la taille de la pleine Lune. Pour restreindre encore davantage la zone de recherche, on a pu se servir de la distance de la kilonova calculée directement grâce aux ondes gravitationnelles, dont la valeur centrale fut estimée à 130 millions d'années lumière avec une marge d'incertitude située entre 85 et 156 millions d'années lumière. Un nombre relativement restreint de 49 galaxies connues se trouvait dans cet intervalle de distance pour la zone de recherche de 28 degrés2. Ceci a permis la mise au point d'une stratégie de recherche ciblée uniquement sur ces 49 galaxies, de sorte que la recherche de la kilonova par les équipes d'astrophysiciens n'allait pas se faire "à l'aveugle".
    7. Cette nouvelle zone plus restreinte de recherches, ainsi que l'estimation de distance faite directement à partir de l'intensité des ondes gravitationnelles, furent immédiatement communiquées aux 70 équipes de scientifiques responsables de l'observation par télescopes d'ondes électromagnétiques. Toutefois, comme la zone de recherche se trouvait dans l'hémisphère sud et que la clarté du jour empêchait alors toute observation, les chercheurs ont dû patienter quelques heures avant de pouvoir faire les premières observations nocturnes au Chili. Ces quelques heures de planification de travaux d'observations ont permis aux équipes d'affiner leurs stratégies de recherche.
    8. T0 +10.9 heures, l’équipe du télescope optique SWOPE situé au Chili fut la première à détecter la kilonova tant convoitée au sein de la galaxie NGC 4993. Dans cette véritable course contre la montre, ils seront suivis de très près par plusieurs équipes qui feront indépendamment la même détection dans les 45 minutes suivantes…
    Cet événement d'ondes gravitationnelles fut tout simplement baptisé GW170817, pour "gravitational wave" du 17 août 2017. En cette date, nous avons assisté à la naissance de l'astrophysique muti-messagers. Traditionnellement, les télescopes employés en astrophysique n'ont toujours utilisé qu'un seul type de messager, soit les ondes électromagnétiques. Selon leur longueur d'onde, ces ondes électromagnétiques portent divers noms (rayons gamma, rayons X, ultra-violet, lumière visible, infrarouge, micro-ondes, ondes radio) et une panoplie de télescopes sont employés pour la détection de ces ondes. Les détecteurs avancés LIGO et VIRGO permettent quant à eux d'employer un second messager, soit les ondes gravitationnelles. Mais puisque les cinq premiers événements détectés par LIGO et VIRGO impliquaient tous des paires de trous noirs dont aucune onde électromagnétique ne peut s'échapper, les astrophysiciens attendaient impatiemment depuis plus de 2 ans un premier système binaire composé soit de deux étoiles à neutrons, soit d'un trou noir et d'une étoile à neutrons. Dans ces deux cas, la détection d'ondes électromagnétiques serait possible en plus de la détection d'ondes gravitationnelles, d'où le nom de cette nouvelle ère de l'astrophysique multi-messagers.

    Deux mois après les détections de GW170817 et GRB170817, le grand secret dans lequel les scientifiques avaient travaillé fut enfin levé en conférence de presse le 16 octobre 2017. Une avalanche de plus de 30 articles furent tous publiés en même temps dans cinq périodiques, dont six dans la seule revue Nature, la plus prestigieuse au monde. Voici d'ailleurs la page couverture de la version imprimée du 2 novembre 2017 de Nature.


    La revue Science, dans son numéro du 22 décembre 2017, allait quant à elle décerner l'honneur de "Breakthrough of the year 2017" (percée scientifique de l'année 2017, toutes disciplines scientifiques confondues) à la fusion du système binaire d'étoiles à neutrons détecté par GW170817. Et pour ne pas être en reste face à sa grande rivale Nature, huit articles additionnels furent publiés au sujet de GW170817 dans cette même édition du 22 décembre 2017 de Science...



    Toutes ces publications nous ont appris une foule d'informations importantes au sujet du système binaire d'étoiles à neutrons et de la kilonova subséquemment issue de leur fusion. Le signal d'ondes gravitationnelles a notamment permis de déterminer que la masse de la première étoile à neutrons se situait entre 1,36 et 2,26 masse solaire, tandis que la masse de la deuxième étoile à neutrons se situait entre 0,86 et 1,36 masse solaire. Quant aux diverses mesures spectrales effectuées dans l'ultraviolet, le visible et l'infrarouge, elles ont permis de confirmer la création d'éléments lourds du tableau périodique (plus lourds que le fer) via un processus de capture rapide de neutrons, nommé processus-r. Selon les calculs théoriques, l'éjecta de masse dans les régions polaires de la kilonova serait peu propice à la formation d'éléments lourds. En revanche, l'éjecta de masse via les effets de marée dans le plan équatorial de la kilonova serait plus riche en lanthanides et ainsi plus propice à la création d'éléments lourds tels les métaux précieux que sont l'or et la platine. On estime d'ailleurs préliminairement qu'une masse d'or équivalente à la masse de la planète Terre aurait pu être créée par cette kilonova!!!



    Nos connaissances fondamentales en astrophysique ont également progressé de façon spectaculaire grâce à cette toute première observation multi-messagers: 
    1. À tout seigneur tout honneur, disons d'abord que la détection simultanée des ondes gravitationnelles et du sursaut d'ondes gamma après un trajet de 130 millions d'années lumière a enfin permis de confirmer une prédiction vieille de 100 ans faite par Albert Einstein à l'effet que les ondes gravitationnelles voyagent à la même vitesse que la lumière.
    2. Nous avons maintenant la confirmation que la fusion d'étoiles à neutrons est à l'origine des sursauts de rayons gamma de courte durée (< 2 secondes), mettant fin à un mystère non résolu depuis plusieurs décennies.
    3. La méthode des sirènes standards pour calculer la constante de Hubble (constante de proportionalité entre la vitesse d'éloignement d'un corps céleste et sa distance mesurée à partir de la Terre), a pu être mise en application pour la toute première fois grâce à ce premier événement multi-messagers attendu des astrophysiciens depuis tant d'années. La valeur obtenue est tombée à cheval entre les estimations précédemment obtenues via deux autres méthodes déjà existantes (fond de micro-ondes cosmiques;  céphéides et supernovae 1a). 
    Dans la méthode des sirènes standard, nous pouvons déterminer la distance de la kilonova directement grâce à la "luminosité" du signal d'ondes gravitationnelles. Quant à la vitesse d'éloignement de la kilonova, elle peut être estimée via le décalage vers le rouge par effet Doppler des ondes électromagnétiques mesurées par des téléscopes d'ondes électromagnétiques. Le rapport entre vitesse d'éloignement de la kilonova et sa distance de la Terre nous donne comme résultat une estimation de la constante de Hubble. Les astrophysiciens espèrent de nombreuses autres observations multi-messagers de kilonovae dans les années à venir dans le but de réduire l'incertitude statistique avec laquelle nous connaissons actuellement la constante de Hubble.  



    Lectures additionnelles suggérées:



    Présentation que j'ai faite au Club d'astronomie de Rimouski le 8 décembre 2017.


    La collaboration VIRGO a mis à la disposition du public un ensemble de documents rédigés en français. Les autres documents cités plus bas sont rédigés en anglais.


    Abbott, B.P. et coauteurs, 2017. GW170817: Observation of Gravitational Waves from a Binary Neutron Star Inspiral. Physical Review Letters, 119, 161101.
    Cet article, rédigé conjointement par la collaboration scientifique LIGO et la collaboration VIRGO, fut publié le 16 octobre 2017, la journée même des conférences de presse et à peine 60 jours après la détection de GW170817. Pardonnez-moi ce jeu de mots un peu facile, mais j'ai l'impression que les scientifiques de LIGO et VIRGO ont travaillé à la vitesse des ondes gravitationnelles, c'est à dire à la vitesse de la lumière...

    Castelvecchi, D. 2017. Colliding stars spark rush to solve cosmic mysteries. Nature, 550, 309-310.
    Paru dans l'édition du 19 octobre 2017 de la revue Nature, trois jours après les conférences de presse annonçant la toute première observation multi-messagers en astrophysique, cet article offre une chronologie des événements et parvient à bien communiquer la fébrilité et l'excitation qui régnaient au sein des 70 équipes d'astrophysiciens au cours des deux mois précédents.

    Miller, M.C. 2017. A golden binary. Nature, 551, 36-37.
    Cet article de vulgarisation scientifique vous servira de point d'entrée au numéro du 2 novembre 2017 de la revue Nature, où 6 articles scientifiques décrivent le système binaire d'étoiles à neutrons et la subséquente kilonova.

    Cho, A. 2017. Cosmic convergence. Science, 358, 1520-1521.
    Cet autre article de vulgarisation scientifique, paru le 22 décembre 2017 dans la revue Science, nous fait explorer davantage les conséquences et possibilités de la nouvelle astrophysique multi-messagers tout en servant d'introduction à 8 articles parus dans ce même numéro de Science

    Metzger et al. 2010, Electromagnetic counterparts of compact object mergers powered by the radioactive decay of r-process nuclei. Mon. Not. R. Astron. Soc. 406, 2650–2662.
    À ma connaissance, c'est dans cet article qu'on retrouve le terme 'kilonova' pour la toute première fois. On y lit: "Puisque nous prévoyons que la luminosité transiente suite à la fusion de 2 étoiles à neutrons sera 1000 fois supérieure à une nova typique, nous proposons d’appeler ces événements kilo-novae". On y trouve des calculs et simulations par ordinateur de la désintégration par radioactivité d'isotopes d'éléments lourds instables, qui est la source d'énergie de la kilonova.

    Metzger, B.D. 2017. Kilonovae. Living Rev Relativ, 20: 3. (version téléchargée 2017-12-31)

    Dans cette véritable "brique" de 59 pages bien étoffées d'équations mathématiques accompagnées de généreuses explications pour les non-experts, Brian Metzger passe en revue tout ce qui était connu au sujet des kilonovae en mai 2017, trois mois avant la première observation multi-messagers d'une kilonova. On n'y trouve donc aucune référence à GW170817, mais on peut y lire tout ce qui était connu ou prédit au sujet des kilonovae. Reflète les connaissances des astrophysiciens sur les kilonovae avant que les scientifiques des collaborations LIGO et VIRGO ne détectent GW170817.

    mercredi 15 novembre 2017

    Introduction / Introducción

    This blog brings my perspective on a broad spectrum of scientific and technological issues. My posts will be written in either English (about 45%), French (about 45%) or Spanish (about 10%). Posts will not be translated and will therefore only be available in the original language in which I write them.


    Ce blog présente mon point de vue sur un large éventail de questions scientifiques et technologiques. Mes articles seront rédigés en anglais (environ 45%), en français (environ 45%) ou en espagnol (environ 10%). Les articles ne seront pas traduits et ne seront donc disponibles que dans la langue d'origine dans laquelle je les écris.




    Este blog trae mi perspectiva sobre un amplio espectro de problemas científicos y tecnológicos. Mis publicaciones se escribirán en inglés (aproximadamente 45%), francés (aproximadamente 45%) o español (aproximadamente 10%). Las publicaciones no se traducirán, así que solo estarán disponibles en el idioma original en el que las escriba.