lundi 22 janvier 2018

Climactualités - janvier 2018

Actualité climatique du mois passé dans laquelle j'entrepose pêle-mêle les articles que j'ai trouvés intéressants (mais j'ai pu, et dû, en louper un certain nombre) ; comme je n'ai pas toute la journée à dédier à la tenue de ce blog je me dispenserai de traduire les articles en français, à chacun donc de se débrouiller avec la langue de Shakespeare en fonction de ses capacités (il y a au demeurant des outils de traduction en ligne assez performants...)

Comme je ne ferai aucun commentaire (sauf pour les dessins humoristiques), me contentant de reprendre quelques extraits ou graphiques des articles en question, les lecteurs qui m'accuseraient de cherry-picking verraient leur prose automatiquement envoyée à la poubelle sans forcément une explication de ma part ; je donnerai à chaque fois les liens donc toute personne n'ayant pas de poil dans la main sera capable d'aller consulter les sources dans leur totalité.


Le 22 décembre 2017 : Asylum applications respond to temperature fluctuations

International negotiations on climate change, along with recent upsurges in migration across the Mediterranean Sea, have highlighted the need to better understand the possible effects of climate change on human migration—in particular, across national borders. Here we examine how, in the recent past (2000–2014), weather variations in 103 source countries translated into asylum applications to the European Union, which averaged 351,000 per year in our sample. We find that temperatures that deviated from the moderate optimum (~20°C) increased asylum applications in a nonlinear fashion, which implies an accelerated increase under continued future warming. Holding everything else constant, asylum applications by the end of the century are predicted to increase, on average, by 28% (98,000 additional asylum applications per year) under representative concentration pathway (RCP) scenario 4.5 and by 188% (660,000 additional applications per year) under RCP 8.5 for the 21 climate models in the NASA Earth Exchange Global Daily Downscaled Projections (NEX-GDDP).


Le 12 janvier 2018 : The influence of internal variability on Earth's energy balance framework and implications for estimating climate sensitivity

Our climate is constrained by the balance between solar energy absorbed by the Earth and terrestrial energy radiated to space. This energy balance has been widely used to infer equilibrium climate sensitivity (ECS) from observations of 20th-century warming. Such estimates yield lower values than other methods and these have been influential in pushing down the consensus ECS range in recent assessments. Here we test the method using a 100-member ensemble of the MPI-ESM1.1 climate model simulations of the period 1850–2005 with known forcing. We calculate ECS in each ensemble member using energy balance, yielding values ranging from 2.1 to 3.9 K. The spread in the ensemble is related to the central hypothesis in the energy budget framework: that global average surface temperature anomalies are indicative of anomalies in outgoing energy (either of terrestrial origin or reflected solar energy). We find that assumption is not well supported over the historical temperature record in the model ensemble or more recent satellite observations. We find that framing energy balance in terms of 500-hPa tropical temperature better describes the planet's energy balance.


Le 17 janvier 2018 : Emergent constraint on equilibrium climate sensitivity from global temperature variability

Equilibrium climate sensitivity (ECS) remains one of the most important unknowns in climate change science. ECS is defined as the global mean warming that would occur if the atmospheric carbon dioxide (CO2) concentration were instantly doubled and the climate were then brought to equilibrium with that new level of CO2. Despite its rather idealized definition, ECS has continuing relevance for international climate change agreements, which are often framed in terms of stabilization of global warming relative to the pre-industrial climate. However, the ‘likely’ range of ECS as stated by the Intergovernmental Panel on Climate Change (IPCC) has remained at 1.5–4.5 degrees Celsius for more than 25 years1. The possibility of a value of ECS towards the upper end of this range reduces the feasibility of avoiding 2 degrees Celsius of global warming, as required by the Paris Agreement. Here we present a new emergent constraint on ECS that yields a central estimate of 2.8 degrees Celsius with 66 per cent confidence limits (equivalent to the IPCC ‘likely’ range) of 2.2–3.4 degrees Celsius. Our approach is to focus on the variability of temperature about long-term historical warming, rather than on the warming trend itself. We use an ensemble of climate models to define an emergent relationship2 between ECS and a theoretically informed metric of global temperature variability. This metric of variability can also be calculated from observational records of global warming3, which enables tighter constraints to be placed on ECS, reducing the probability of ECS being less than 1.5 degrees Celsius to less than 3 per cent, and the probability of ECS exceeding 4.5 degrees Celsius to less than 1 per cent.


17/01/2018 :
Forecasters believe the ongoing weak-to-moderate La Niña is currently peaking and will weaken into the spring. The strength of an event isn't strongly linked to the strength of the impacts in the U.S., but strength does increase the likelihood that at least some level of the typical impacts will be felt. The next update will be on February 8.
Visualisation du phénomène ENSO sur le Pacifique Est en décembre 2017.


GISS L-OTI anomalies de températures vs 1951-1980
22/01/2018 :
Note: Gray areas signify missing data.
Note: Ocean data are not used over land nor within 100km of a reporting land station.
Note: Gray areas signify missing data.
Note: Ocean data are not used over land nor within 100km of a reporting land station.
Anomalies de températures de l'année 2017 selon la latitude.


Data Snapshots
22/01/2018 :
Average surface temperature in 2016 compared to the 1981-2010 average. NOAA map, adapted from Plate 2.1a in State of the Climate in 2016.
History of global surface temperature since 1880 ; source noaa
Atmospheric carbon dioxide concentrations in parts per million (ppm) for the past 800,000 years, based on EPICA (ice core) data. The peaks and valleys in carbon dioxide levels track the coming and going of ice ages (low carbon dioxide) and warmer interglacials (higher levels). Throughout these cycles, atmospheric carbon dioxide  was never higher than 300 ppm; in 2016, it reached 402.9 ppm (black dot). NOAA, based on EPICA Dome C data (Lüthi, D., et al., 2008) provided by NOAA NCEI Paleoclimatology Program.
Carbon dioxide concentrations. The bright red line (source data) shows monthly average carbon dioxide at NOAA's Mauna Loa Observatory on Hawai'i in parts per million (ppm): the number of carbon dioxide molecules per million molecules of dry air.  Over the course of the year, values are higher in Northern Hemisphere winter and lower in summer. The dark red line shows the annual trend, calculated as a 12-month rolling average.
(left vertical axis) The heating imbalance in watts per square meter relative to the year 1750 caused by all major human-produced greenhouse gases: carbon dioxide, methane, nitrous oxide, chlorofluorocarbons 11 and 12, and a group of 15 other minor contributors. Today's atmosphere absorbs about 3 extra watts of incoming solar energy over each square meter of Earth's surface. According to NOAA's Annual Greenhouse Gas Index (right axis) the combined heating influence of all major greenhouse gases has increased by 40% relative to 1990. NOAA graph, based on data from NOAA ESRL. 
This graph (source data) shows average area covered by snow in the Northern Hemisphere during March and April as the difference from the 1981-2010 average.
This graph shows monthly values of the Oceanic Niño Index from 1950 through present.
Location of the Niño regions for measuring sea surface temperature in the eastern and central tropical Pacific Ocean. The sea surface temperature in the Niño3.4 region, spanning from 120˚W to 170˚W longitude, when averaged over a 3-month period, forms NOAA’s official Oceanic Niño Index (the ONI). NOAA image by Fiona Martin.
Maps of sea surface temperature anomaly in the Pacific Ocean during a strong La Niña (top, December 1988) and El Niño (bottom, December 1997). Maps by NOAA, based on data provided by NOAA View. large versions La Niña | El Niño
The graph shows the average of a set of temperature simulations for the 20th century (black line), followed by projected temperatures for the 21st century based on a range of emissions scenarios (colored lines). The shaded areas around each line indicate the statistical spread (one standard deviation) provided by individual model runs. (Data processing by Jay Hnilo, CICS-NC, using data courtesy the Coupled Model Intercomparison Project, or CMIP3.)


Coral Reef Watch
This figure shows the regions currently experiencing high levels of heat stress that can cause coral bleaching.
This figure shows the distribution of the lowest heat stress levels predicted by at least 60% of the model ensemble members. In other words, there is a 60% chance that the displayed heat stress levels will occur.

NOAA Coral Reef Watch's satellite Coral Bleaching Alert Area below shows the maximum heat stress during the Third Global Coral Bleaching Event. Regions that experienced the high heat stress that can cause coral bleaching, from June 1, 2014 to May 31, 2017, are displayed. Alert Level 2 heat stress indicates widespread coral bleaching and significant mortality. Alert Level 1 heat stress indicates significant coral bleaching. Lower levels of stress may have caused some bleaching as well. More than 70% of coral reefs around the world experienced the heat stress that can cause bleaching and/or mortality during the three-year long global event.


Climate Prediction Center
22/01/2018 :
Global Tropics Benefits/Hazards 
Last Updated: 01.16.18 Valid: 01.17.18 - 01.30.18
During the next two weeks, the current MJO signal is forecast to continue its eastward propagation. La Nina, the low frequency state, is expected to remain entrenched in the central and eastern Pacific. For Week-1, the RMM-index shows movement into Phase 4 for the MJO, moving the enhanced convective region over the Maritime Continent. The forecast shows deterioration in the amplitude of the signal over the next week and into the beginning of Week-2. This is most likely due to expected Rossby wave activity in the Pacific. Model guidance reflects this solution, though the GFS model forecasts a larger decay to the signal than the European model. Despite the weakening, eastward propagation into Phase 5 is expected for the MJO signal. The convective envelope of the MJO is likely to destructively interfere with the base state as it moves into the western Pacific. This is reflected in the shift of forecasted precipitation patterns for the Pacific from Week-1 to Week2.

Tropical cyclone activity is expected to continue in the South Indian basin during the next two weeks. Currently, the western South Indian Ocean is experiencing Tropical Cyclone Berguitta, which formed on 11 January. There is moderate confidence that this region will remain active in Week-1. The Kimberley Coast is also highlighted for possible tropical cyclone activity for Week-1, as the MJO enhanced convective envelope moves further east over the Maritime Continent. For Week-2, there is moderate confidence for tropical cyclone formation for the northern coast of Australia, near Darwin. This again falls in the enhanced convective region expected for the Phase 4 and 5 MJO signal. Model guidance shows a possibility for tropical cyclone formation in the South Pacific in Week-2, though confidence is low at this time.

Week-1 precipitation patterns follow a typical MJO Phase 4 pattern with effects from tropical cyclone activity. A swath of above-average rainfall is likely in the central South Indian Ocean, which has been an active region for tropical cyclone formation in the new year. There are regions of high confidence in the eastern South Indian Ocean, near the northern Australian coast and Java and north near the Philippines, which are forecast to receive above-average rainfall. This rainfall anomaly is supported by the dynamical model guidance and a Phase 4 MJO footprint. The below-average rains region typical of La Nina activity is reinforced by suppressed convection associated with MJO in Phase 4. The forecast for below-average rainfall in Brazil is also supported by both dynamical and statistical guidance. There is moderate confidence that the above-normal temperatures that plagued eastern Australia in the previous week are expected to return toward the end of Week-1.

For Week-2, the MJO is expected to move into Phase 5, propagating the convective envelope further east, toward the western Pacific. Regions over the Maritime Continent are expected to continue to experience above-average rains as the parts of the enhanced convective envelope will still remain over these regions. This solution is supported by the dynamical model guidance, though not as robust as the statistical guidance, resulting in moderate confidence. The area of persistent below-average rainfall in the tropical Pacific is likely to shift eastward, as the MJO convective signal moves into the western Pacific. An area of above-average precipitation north of this persistent dry region in the Pacific is expected, which is typical of a Phase 5 MJO event, as well as the La Nina base state. As the region of the enhanced convection moves east, an area of below-average is forecast for the central Indian Ocean. Model guidance and statistical tools are in agreement for this solution; however, with the current tropical cyclone activity in the South Indian basin, this forecast is only moderate confidence. The dry region for Week-1 in Brazil is likely to continue with below-average rainfall into Week-2. Model guidance was in disagreement for this region, though a Phase 5 MJO event has a strong dry signal in this region.

Forecasts over Africa are made in consultation with CPCs international desk, and can represent local-scale conditions in addition to global-scale variability.


Polar Science Center
22/01/2018 :
Average Arctic sea ice volume in October 2017 was 6100 km3 a 1100 km3  above the record of 2012 ( 5000 km3) and almost the same as  2010.  October 2017 volume was 65% below the maximum October ice volume in 1979,  50% below the 1979-2016 mean, and very close to the long term trend line.   While 2017 started well below prior years and remained so through May,  ice loss during June through October was less than previous years with July and August accounting for most of the “catch up”. This is shown in Fig 8 which compares daily ice volume anomalies for several recent years (base period 1979-2016). The difference between 2012 (the previous record) is notable. While 2017 started out with much lower sea ice volume, 2012 had a much more rapid sea ice loss through May and June. Both 2012 and 2017 have very similar anomaly progression through July. August and September 2017 by comparison was a months of reprieve relative to 2012.
Average ice thickness in October 2017 over the PIOMAS  domain increase a bit relative to September and is  10 cm above to the lowest on record (Fig 4.).   Note that the interpretation of average ice thickness needs to take into account that only areas with ice thickness greater than 15 cm are included so that years with less total volume can have a greater ice thickness. That’s why the average ice thickness can increase late in the year as thin regrown sea ice is added into the average.
Fig 8 Comparison of Daily Sea Ice Volume Anomalies relative to 1979-2016.
Fig 4.Average Arctic sea ice thickness over the ice-covered regions from PIOMAS for a selection of years. The average thickness is calculated for the PIOMAS domain by only including locations where ice is thicker than .15 m.
Fig.1  Arctic sea ice volume anomaly from PIOMAS updated once a month. Daily Sea Ice volume anomalies for each day are computed relative to the 1979 to 2016 average for that day of the year. Tickmarks on time axis refer to 1st day of year. The trend for the period 1979- present  is shown in blue. Shaded areas show one and two standard deviations from the trend. Error bars indicate the uncertainty of the  monthly anomaly plotted once per year.
Fig. 2 Total Arctic sea ice volume from PIOMAS showing the volume of the mean annual cycle, and from 2010-2017. Shaded areas indicate one and two standard deviations from the mean.
Fig.3 Monthly Sea Ice Volume from PIOMAS for April and Sep.
Fig 6. PIOMAS Ice Thickness Anomaly for October 2017 relative to 2000-2015.

Arctic Data archive system (ADS)
22/01/2018 :
Arctic sea ice extent.
Antarctic sea ice extent.

C'est si vrai, en riant avec What on earth? comics !

Le comité de rédaction du Wall Street Journal fait ses choix :
- En voici un de 229 scientifiques qui appellent à réduire les émissions de CO2.
Celui-ci est de 16 scientifiques. Il dit que le réchauffement climatique est un mensonge communiste.
C'est sur papier à en-tête d'Exxon Mobil. Chouette !
Ne nous aplatissons pas devant la majorité scientifique.

En arrière toutes ! (traduction libre)

C'est vrai quoi, assez de fake news comme ça !
The Trump administration has prohibited the CDC from saying "fetus" and "evidence-based" among other words ( ). The Environmental PROTECTION Agency is tearing up environmental regulations at an unprecedented pace ( ), and hired an oppo research firm to dig for dirt on the EPA's own staff ( ). Please tell me our country's current slide into Third World Dictatorship is only a bad dream.

dimanche 21 janvier 2018

Tim Ball, l'un des nombreux clowns climatosceptiques américains, se fait remonter les bretelles par plus compétent que lui !

Desmogblog nous apprend que Tim Ball (CV disponible ici) est un ancien professeur de géographie qui s'est transformé en « orateur prolifique » au service de la communauté climatosceptique ; il est affilié à différents think tanks ainsi qu'à diverses organisations conservatrices (i.e. de droite) ; il est également membre du Clexit qui affirme que « The world must abandon this suicidal Global Warming crusade. Man does not and cannot control the climate » (Le monde doit abandonner cette croisade suicidaire du réchauffement climatique. L'homme ne contrôle pas et ne peut pas contrôler le climat)

Inutile donc de préciser que nous avons affaire à du lourd avec Tim Ball, lequel a d'ailleurs son rond de serviette à la table d'Anthony Watts, sur WUWT, où il vient de commettre son dernier délit de désinformation à l'usage des gogos avec un article intitulé What do the Ice Core Bubbles Really Tell Us? (Qu'est-ce que les bulles de carottes de glace nous disent vraiment ?)

Je ne commenterai ni ne tenterai de résumer son speech, car je ne connais pas grand chose au sujet (comme Tim Ball au passage), je vais seulement me contenter de citer deux commentaires d'un lecteur assidu du site WUWT, climatosceptique lui-aussi, pour juger de la pertinence de ce que raconte notre géographe en carton.

Ferdinand Engelbeen est un ingénieur qui a un profil de climatosceptique lukewarmer, c'est-à-dire se situant tout au-dessus du panier de crabes appartenant à la grande communauté disparate du climatoscepticisme universel ; voici ce qu'il a à dire au sujet de ce que Tim Ball nous narre.

Ferdinand Engelbeen says:

Dear Dr. Ball,
While do appreciate your many years of work in the skeptic community, in this case you are completely wrong.
– The temperature proxy is derived from δD and δ18O from water in the ice, not from the enclosed air. Depending of the accumulation rate, even layers of 1 year resolution over the past 110,000 years can be recognised and measured, as is the case for the Greenland summit.
– One doesn’t need meters of ice nowadays, a few cm is sufficient with modern sublimation techniques, cryogenic separation and mass spectroscopy. For the isotopes in the ice mass that is in many cases enough for yearly resolution, for the enclosed gases, that depends of the accumulation rate: from less than a decade over the past 150 years (Law Dome) to 560 years for the past 800,000 years (Dome C).
– Ice cores are choosen at the top of domes, because that is where there is little to no sideward movement, little to no cracks, etc.
Then there is the constant flow of water across and through every portion of the glacier.
Sorry, we are NOT talking about glaciers which are largely melting in summer. Ice cores are taken at domes with average temperatures between -20ºC (coastal) and -40ºC (inland). Even at the Greenland summit, mid-summer surface melt only happens once in about 100 years. That influences the ice age – gas age differences for which is corrected. How much water do you think percolates at -40ºC in the Vostok or Dome C ice cores?
Last but not least: please let the late Dr. Jaworowski rest in peace, together with his completely outdated (1992!) ideas about ice cores. He was an expert about metals (ions) in ice cores as result of the Tsjernobyl disaster, but as far as I know, he never made one analyses of CO2 or other gases in ice cores, only wrote a lot of objections. These were completely, point by point, refuted by the work of Etheridge e.a. on the high resolution ice cores of Law Dome in 1996.
Dr. Jaworowski made several statements which were physically impossible, like CO2 escaping (preferentially?) via cracks in the ice to the outside world, while inside one found 180-280 ppmv and the outside air in the labs was at least 380 ppmv (or more in enclosed rooms with people in it).
See further my comment on his objections:
About modern ice core measurements, see some interesting background:
The original work of Etheridge from 1996: (if available, at this moment their web site is in maintenance?)

Traduit en bon français cela donne :

Cher Dr. Ball,Tout en appréciant vos nombreuses années de travail dans la communauté sceptique, dans ce cas, vous avez complètement tort.- Le proxy de température est dérivé de δD et δ18O de l'eau dans la glace, pas de l'air y inclus. Selon le taux d'accumulation, même des couches de résolution d'un an au cours des 110 000 dernières années peuvent être reconnues et mesurées, comme c'est le cas pour le sommet du Groenland.- On n'a pas besoin de mètres de glace de nos jours, quelques centimètres suffisent avec les techniques de sublimation modernes, la séparation cryogénique et la spectroscopie de masse. Pour les isotopes dans la masse de glace qui est dans de nombreux cas suffisant pour la résolution annuelle, pour les gaz enfermés, cela dépend du taux d'accumulation : de moins d'une décennie au cours des 150 dernières années (Law Dome) à 560 années  pour les derniers 800000 ans (Dôme C).- Les noyaux de glace sont choisis au sommet des dômes, car c'est là qu'il y a peu ou pas de mouvement latéral, peu ou pas de fissures, etc. Par ailleurs : Ensuite, il y a le flux constant d'eau au milieu et à travers chaque partie du glacierDésolé, nous ne parlons PAS des glaciers qui fondent en grande partie en été. Les carottes de glace sont prises aux dômes avec des températures moyennes entre -20ºC (côtières) et -40ºC (intérieures). Même au sommet du Groenland, la fonte de la surface au milieu de l'été ne se produit qu'une fois en une centaine d'années. Cela influe sur l'âge de la glace - les différences d'âge de gaz pour lesquelles il y a  correction. Combien d'eau pensez-vous percoler à -40ºC dans les carottes de glace de Vostok ou de Dome C ? Dernier point, mais non des moindres : s'il vous plaît laissez le défunt Dr. Jaworowski reposer en paix, avec ses idées complètement obsolètes (1992 !) sur les carottes de glace. Il était un expert des métaux (ions) dans les carottes de glace à la suite de la catastrophe de Tchernobyl, mais autant que je sache, il n'a jamais fait une seule analyse du CO2 ou d'autres gaz dans les carottes de glace. Celles-ci étaient complètement, point par point, réfutées par le travail d'Etheridge e.a. sur les carottes de glace à haute résolution de Law Dome en 1996.Dr Jaworowski a fait plusieurs déclarations qui étaient physiquement impossibles, comme le CO2 s'échappant (préférentiellement ?) via des fissures dans la glace vers le monde extérieur, tandis qu'à l'intérieur on trouvait 180-280 ppmv et l'air extérieur dans les laboratoires était au moins à 380 ppmv (ou plus dans des pièces fermées avec des personnes dedans).

Un peu plus loin le même Ferdinand Engelbeen nous montre une magnifique crosse de hockey :

Une autre courbe en crosse de hockey, le taux de CO2 reconstitué à partir des carottes glaciaires !

On ne peut évidemment s'empêcher de penser à la « courbe de Mann » qui suit une trajectoire quasiment identique (une coïncidence pour les climatosceptiques qui ne s'en laissent pas compter si facilement)

Et pour finir :

Ferdinand Engelbeen says:

Over the lifetime of the earth, CO2 levels have been much higher than today. Despite that, we have had colder and warmer temperatures. Nowadays, most of that CO2 resides in thick chalk layers all over the world and we are at a quite low CO2 level, compared to millions of years ago.
What we see in the ice cores is that over the past few millions of years, CO2 follows temperatures with some lag (800 +/- 600 years), probably a matter of deep ocean – atmosphere circulation and changing temperatures, while the opposite (the influence of CO2 on temperature) is not measurable.
Since about 1850, the main start of the industrial revolution, CO2 levels in the atmosphere increased about in ratio with human emissions of CO2. It is as good as certain that human emissions caused that increase, which benefits near all plants on earth.
(If you are interested, here are the arguments: )
Some sceptics here don’t accept that humans are the cause of the CO2 increase and all kinds of arguments are used, probably because if humans aren’t to blame, the whole AGW meme is gone, as that is one of the pilars of the theory.
Unfortunately, that humans are the cause of the increase is rock solid and the only point where the “warmistas” are right and the sceptics are wrong. Using arguments which don’t hold to any scrutiny is shooting in your own foot and weakens your arguments where the other side has little defence, like the (lack of) influence of CO2 on temperature…
The above writing from Dr. Ball is a clear example of using the wrong arguments…

Soit en français :

Au cours de la vie de la Terre, les niveaux de CO2 ont été beaucoup plus élevés qu'aujourd'hui. Malgré cela, nous avons eu des températures plus froides et plus chaudes. De nos jours, la plus grande partie de ce CO2 réside dans des couches épaisses de craie partout dans le monde et nous sommes à un niveau de CO2 relativement bas, comparé à des millions d'années auparavant.
Ce que nous voyons dans les carottes de glace est qu'au cours des derniers millions d'années, le CO2 suit des températures avec un certain décalage (800 +/- 600 ans), probablement une affaire de circulation océanique profonde et des températures changeantes, tandis que le contraire (l'influence du CO2 sur la température) n'est pas mesurable.
Depuis environ 1850, le principal début de la révolution industrielle, les niveaux de CO2 dans l'atmosphère ont augmenté environ en proportion des émissions humaines de CO2. Il est absolument certain que les émissions humaines ont causé cette augmentation, ce qui profite à toutes les plantes sur terre. [...] 

Certains sceptiques n'acceptent pas que les humains sont la cause de l'augmentation du CO2 et toutes sortes d'arguments sont utilisés, probablement parce que si les humains ne sont pas à blâmer, tout le mème RCA disparaît, car c'est l'un des piliers de la théorie.
Malheureusement, que les humains sont la cause de l'augmentation est solide comme un roc et représente le seul point où les « réchauffistes » ont raison et les sceptiques ont tort. Utiliser des arguments qui ne résistent pas à l'analyse, c'est se tirer soi-même  une balle dans le pied et affaiblir vos arguments là où l'autre partie a peu de défense, comme l'influence (ou l'absence d'influence) du CO2 sur la température ...
Le texte ci-dessus du Dr. Ball est un exemple clair d'utilisation des mauvais arguments ...

Evidemment il y a dans le commentaire d'Engelbeen à boire et à manger, notamment son scepticisme sur l'influence du CO2 dans l'augmentation des températures et sa supposition qu'il y aurait peu d'arguments côté scientifiques pour prouver cette influence, mais il reconnaît quand même que c'est bien l'Homme qui est responsable de l'augmentation de 40% du taux de CO2 depuis 1850 environ ; le plus important après tout n'est pas de savoir ce que pense Engelbeen du role du CO2 sur la température, il n'est pas climatologue et ses nombreuses apparitions sur le site WUWT montrent qu'on peut le classer parmi les personnes pouvant avoir des biais cognitifs préjudiciables sur ses raisonnements (il a travaillé pour AkzoNobel, un groupe chimique...) ; le plus important est sa critique de Tim Ball, à laquelle ce dernier n'a à l'heure actuelle toujours pas répondu (peut-être le décalage horaire entre le Canada et les Etats-Unis...), ainsi que sa reconnaissance que beaucoup de ses compagnons d'arme utilisent des arguments qui les desservent, mais ça on le savait depuis pas mal de temps déjà.

Au passage signalons que nous autres français sommes à la pointe de ces recherches sur les carottes de glace avec Claude Lorius et Jean Jouzel, l'un sur le terrain l'autre dans son labo, pour nous raconter l'histoire du CO2, et par là-même des températures, au cours des  millions d'années qui nous ont précédées.

Reconstitution de la température moyenne sur Terre pendant les 500 derniers millions d’années. Les données jusqu’à 800 000 ans viennent des carottes de glace. Source Wikipedia. (tiré du site lasciencepourtous)

Et pour la parfaite corrélation entre CO2 et températures, entre autres explications, voir l'excellent billet de blog warmgloblog duquel on peut tirer ce graphique :

Atmospheric CO2 concentration (orange line) and estimated global average temperature (navy blue line) from the present (right end of horizontal axis, not including information since industrialization) and as much as 1 million years ago (left end of horizontal axis). 
Source:  Slide 13 in Coursera course on Climate Literacy: Navigating Climate Change Conversations,; based on temperature proxy data in Zachos et al., 2001, Science Vol. 292, p. 686,  as transformed by Hansen and Sato, 2012; and CO2 measurements in Luthi et al., 2008, Nature Vol. 453|doi:10.1038/nature06949. 

Ce qui montre bien qu'on peut s'informer assez facilement sur le sujet sans avoir besoin de lire la prose indigeste et indigente servie par monsieur Ball sur WUWT.

vendredi 19 janvier 2018

Jean-Pierre Bardinet dans ses œuvres, toujours aussi nul !

En consultant le fil info de sceptiques 2018 dont j'ai déjà parlé mon œil est attiré par un commentaire intéressant :
  • 250.  Hug | 18/01/2018 @ 15:28  Je suis tombé par hasard sur cet article (la concentration en CO2 dans l’atmosphère a augmenté de 40% depuis l’an mil) du Monde daté de novembre dernier et classé dans la rubrique « Les décodeurs »
    • Les décodeurs du vérifient déclarations, assertions et rumeurs en tous genres ; ils mettent l’information en forme et la remettent dans son contexte; ils répondent à vos questions.
    • La fin de l’article redonne un description bien connue de l’effet de serre:
    • Le fonctionnement est simple : les gaz à effet de serre – dont le CO2 – agissent un peu comme la vitre d’une serre. Ils laissent entrer – dans l’atmosphère – une grande partie du rayonnement solaire, mais retiennent une grande partie du rayonnement infrarouge qui part dans l’autre sens (qui est bloqué par ces gaz et par les nuages). Ce faisant, la température dans la serre – ou l’atmosphère – augmente.
    • Aah la bonne vieille croyance tenace que la température élevée dans une serre est la conséquence de l’absorption du rayonnement IR par le vitrage… Sacrés déconneurs euh décodeurs ces journalistes du Monde. 
Je dis « intéressant » non pour sa pertinence mais parce qu'il me permet encore une fois de pointer du doigt le faible niveau en lecture de nos amis climatosceptiques.

En effet, Hug se contente bêtement de reprendre le « raisonnement » du sieur Jean-Pierre Bardinet qu'on peut lire en commentaire dans l'article du Monde :
  • JEAN-PIERRE BARDINET 10/11/2017 - 18h11 Dans une serre, les échanges de chaleur se font essentiellement par convection (expérience de Wood). La part radiative y est marginale, tout comme ce qui se passe dans le monde réel. Le modèle d’effet de serre présenté naïvement dans l’article n’a aucun sens. 
Ainsi Bardinet et à sa suite Hug n'ont pas compris le texte du journaliste du Monde Pierre Breteau ; celui-ci a pourtant clairement écrit :
  • Le fonctionnement est simple : les gaz à effet de serre – dont le CO2 – agissent un peu comme la vitre d’une serre. Ils laissent entrer – dans l’atmosphère – une grande partie du rayonnement solaire, mais retiennent une grande partie du rayonnement infrarouge qui part dans l’autre sens (qui est bloqué par ces gaz et par les nuages). Ce faisant, la température dans la serre – ou l’atmosphère – augmente.
Si on lit attentivement le texte, on voit d'abord qu'il dit « les gaz à effet de serre [...] agissent un peu comme la vitre d’une serre » ; dans cette phrase les mots qui ont échappé à nos deux illettrés sont « un peu comme », c'est-à-dire qu'il s'agit d'une comparaison approximative, la même que tout scientifique utiliserait s'il voulait décrire le processus à un profane ; donc il ne s'agit pas de prétendre que « les gaz à effet de serre [agiraient] exactement comme la vitre d’une serre », « un peu » n'est pas du tout le synonyme d'« exactement ». Cela c'est pour le premier point.

Ensuite, si l'on décompose la phrase correctement, ce que nos deux lascars ne semblent pas capables de faire, on obtient : 
  • Le fonctionnement est simple : les gaz à effet de serre – dont le CO2agissent un peu comme la vitre d’une serre. Ils laissent entrer – dans l’atmosphère – une grande partie du rayonnement solaire, mais retiennent une grande partie du rayonnement infrarouge qui part dans l’autre sens (qui est bloqué par ces gaz et par les nuages). Ce faisant, la température dans la serre – ou l’atmosphère – augmente.
Ou, en enlevant les mots que je viens de barrer :
  • Le fonctionnement est simple : les gaz à effet de serre – dont le CO2 – laissent entrer dans l’atmosphère une grande partie du rayonnement solaire, mais retiennent une grande partie du rayonnement infrarouge qui part dans l’autre sens (qui est bloqué par ces gaz et par les nuages). Ce faisant, la température dans l’atmosphère augmente.
Peut-être que cette définition paraitrait simpliste pour un scientifique, pourtant il me semble qu'elle est globalement correcte et représente la réalité.

Et Wikipédia nous explique l'analogie avec la serre de jardin :
  • L'usage de l'expression effet de serre s'est étendu dans le cadre de la vulgarisation du réchauffement climatique causé par les gaz à effet de serre qui bloquent et réfléchissent une partie du rayonnement thermique[1]. Or le bilan thermique d'une serre s'explique essentiellement par une analyse de la convection et non du rayonnement : la chaleur s'accumule à l'intérieur de la serre car les parois bloquent les échanges convectifs entre l'intérieur et l'extérieur. Aussi, le terme scientifique, utilisé par la communauté des climatologues pour décrire l’influence des gaz à effet de serre, composants de l'atmosphère bloquant le rayonnement infrarouge, sur le bilan thermique de la Terre, est forçage radiatif.
Après nous avoir expliqué en quoi il consiste réellement :
  • L’effet de serre est un processus naturel résultant de l’influence de l'atmosphère sur les différents flux thermiques contribuant aux températures au sol d'une planète. La prise en compte de ce mécanisme est nécessaire pour expliquer les températures observées à la surface de la Terre et de Vénus. Dans le système solaire, l'essentiel de l'énergie thermique reçue par une planète provient du rayonnement solaire et, en l’absence d'atmosphère, une planète rayonne idéalement comme un corps noir, l'atmosphère d'une planète absorbe et réfléchit une partie de ces rayonnements modifiant ainsi l'équilibre thermique. Ainsi l'atmosphère isole la Terre du vide spatial comme une serre isole les plantes de l'air extérieur.
Comme on peut le voir si l'on veut vraiment expliquer l'effet-dit-de-serre (qu'un de mes lecteurs préfère appeler l'effet atmosphérique, c'est son droit, mais une atmosphère sans gaz-à-effet-de-serre ne fonctionnerait peut-être pas pareil...) c'est quelque peu compliqué, et encore sur Wikipédia ce qu'on peut lire n'est qu'une simplification du processus !

Il est vrai que quand on nie cet effet de serre (appelons-le comme cela pour rester dans le registre de la simplification pour le profane que je suis) comme Bardinet ou Hug, ou Camille Veyres, on cherche le moindre détail pour essayer de le réfuter, mais ces gentlemen confondent les blogs pseudo-scientifiques (mais réellement climato-faux-sceptiques) avec la littérature scientifique qui depuis bientôt deux siècles exactement (1824 avec Joseph Fourier) a théorisé puis validé ce processus.

Mais l'ami Bardinet ne s'arrête pas à une seule bêtise, sur la lancée il s'en autorise une deuxième, à rajouter à la longue liste de ses contre-vérités :
  • Bardinet le magicien.
    JEAN-PIERRE BARDINET 10/11/2017 - 17h58 La sensibilité climatique, estimée à +3-4°C au début des années 2000, est à présent chiffrée à +0,6°C par les publications récentes. Elle tend vers zéro, ce qui explique pourquoi, durant les 600 millions d'années antérieurs ayant eu une moyenne de 2000 ppm, aucun réchauffement cataclysmique et irréversible ne s’est produit. Donc, l’action du CO2 sur la température est nulle. CQFD.
CQFD qu'il dit le monsieur, tout content d'avoir dit une stupidité.

Evidemment Bardinet se garde bien de citer ces fameuses « publications récentes » qui n'existent en fait que dans son imagination ou qu'il a pêchées dans un blog ami du climatoscepticisme (WUWT ou Climate etc, allez-savoir)

Pourtant un climatosceptique comme lui, mais un peu plus calé sur le sujet, a publié un billet récemment (le 3 janvier dernier !) intitulé A new measurement of Equilibrium Climate Sensitivity (ECS) dans lequel il évalue la sensibilité climatique à...2,5°C +/- 0,5°C, avec une probabilité de 95% !

On est quand même un peu loin du +0,6°C que Bardinet nous sort de son chapeau de magicien.

Seulement voilà, Clive Best, l'auteur de cette estimation, est challengé sur Skeptical Science (un site que Bardinet ne lira jamais, sauf peut-être en cachette car il n'osera jamais l'avouer à ses pairs) par un jeune chercheur (Caltech Postdoctoral Scholar at the NASA Jet Propulsion Laboratory) du nom de Mark Richardson qui remet en question ses calculs dans un article intitulé A 'new' measurement of climate sensitivity?, publié le 18 janvier (soit hier) mais déjà publié la veille sur le site …and Then There's Physics.

Les spécialistes (comme Tsih ou phi) se régaleront certainement avec le texte de Richardson ainsi qu'avec les commentaires qui sont d'une autre tenue que ceux que l'on trouve sur WUWT ou Skyfall, personnellement je n'ai pas d'avis sur la question n'étant pas qualifié pour en donner un ; par contre je peux relever que la sensibilité climatique dans cet article est estimée à ...
  • The conclusion? Observational data support a “best estimate of equilibrium climate sensitivity of 2.9°C”, with a range of 1.7–7.1°C.
Mais il parait qu'une étude récente, Emergent constraint on equilibrium climate sensitivity from global temperature variability, publiée le 17 janvier 2018, fixe cette sensibilité climatique à ...
  • [...] probability of ECS being less than 1.5 degrees Celsius to less than 3 per cent, and the probability of ECS exceeding 4.5 degrees Celsius to less than 1 per cent.
Par conséquent, d'après cette étude récente (on ne peut pas faire plus récent) il y a moins de 3% de chance que la sensibilité climatique soit égale à la valeur sortie du chapeau de Bardinet ; la valeur « centrale » retenue dans l'étude étant de 2,8°C :
  • Here we present a new emergent constraint on ECS that yields a central estimate of 2.8 degrees Celsius with 66 per cent confidence limits (equivalent to the IPCC ‘likely’ range) of 2.2–3.4 degrees Celsius.
Pour mémoire, la sensibilité climatique figurant dans le dernier rapport du GIEC (en 2013) était de 3°C avec une fourchette de 1,5-4,5°C.

Mais comme le dit Bardinet :
  • La sensibilité climatique, estimée à +3-4°C au début des années 2000, est à présent chiffrée à +0,6°C par les publications récentes. [...]

Trump parlait de shithole countries (pays trous à merde), on pourra maintenant parler de shithole claims concernant les affirmations fantaisiste de gugusses comme Bardinet, Veyres, Rittaud et consorts.

Argument climatosceptique fraichement émis.

jeudi 18 janvier 2018

Risques de dérapages sur Skyfall, mais la police veille au grain !

Je ferai court.

Dans le fil info de sceptiques 2018 (c'est marrant, ils ne l'ont pas appelé fil info de réalistes...) un certain nombre de vieux adeptes de la secte skyfallienne se permettent d'apporter quelque peu de bon sens (vous me direz que la barre n'est pas très haut placée), par exemple volauvent et the fritz qui auraient eu le malheur d'écrire l'un et l'autre des commentaires inadmissibles comme :

186.  volauvent | 15/01/2018 @ 9:30
rpf (#184),
La partie « CO2 » et « effet de serre » est complètement déconnante:
– le surplus de CO2 est du dégazage naturel
– l’effet de serre n’existe pas, c’est la convection qui chauffe.
On devrait briefer ce cher toubib. Il y a plein de choses à critiquer sur les thèses du GIEC, mais pas ça.

189.  the fritz | 15/01/2018 @ 12:45
volauvent (#186), Curieux (#187), rpf (#184),
Encore un site négatomachin !!
Vous adhérez à ce genre de site qui foule la science au pied ?
Le prétendu « effet de serre » et son forçage radiatif
Vaudrait sur la Lune dans le vide,
Voilà , on a compris pourquoi la température du vide intersidéral n’est pas le zéro absolu [...]

194.  volauvent | 15/01/2018 @ 14:35
TL (#192),
La non origine anthropique du CO2 et l’effet de saturation sont les deux thèmes qui ridiculisent le climatoscepticisme [...]

210.  the fritz | 15/01/2018 @ 21:21
TL (#203),
[...] – Si c’est Monsieur Durand (sic) qui vous a initié aux fondements de la climatologie , très bien ; mais il a fait les mêmes erreurs que vous et que nous rappelons sans cesse, Volauvent et moi même , à savoir refus de la notion d’effet de serre et responsabilité de l’homme dans l’augmentation des GES [...]

Je n'ai pas tout cité et je n'irai pas jusqu'à affirmer que tout ce que disent d'habitude volauvent et the fritz est correct, je dis simplement que dans la bouillie servie sur Skyfall ils sont capables d'apporter parfois quelques ingrédients à peu près digestes.

J'aurais pu ajouter Tsih et phi, mais le premier n'a rien commenté dans ce fil de discussion et le second a émis un seul commentaire (n°15) étant passé inaperçu, ils ne seront donc pas inquiétés par la patrouille.

La patrouille, quelle patrouille ?

Ben celle qu'on appelle quand il y a le feu, rappelez-vous Jean-Pierre Bardinet qui avait eu recours à un certain Camille pour tenter d'expliquer aux Wattsiens les contre-vérités qu'il avait publiées sur WUWT (c'est ici : Camille Veyres serait-il l'ange gardien de Jean-Pierre Bardinet ? )

Eh oui, la patrouille n'est nulle autre que Camille Veyres qui arrive avec fracas au numéro 243 afin de rappeler à l'ordre les déviants :

243.  Camille Veyres | 17/01/2018 @ 20:00
Bonjour ,
j’essaie ici de donner des éléments de réponse à divers posts entre #184 et #230 [blablabla] volvauvent [blablabla] the fritz [blablabla] Un enfumage assez efficace [blablabla]

Heureusement que Skyfall a quelques gardiens du Temple chargés de redresser ce qui est tordu ; le problème c'est quand c'est encore plus tordu après qu'avant.

lundi 15 janvier 2018

La limitation de vitesse à 80 km/h


Le 1er juillet prochain la vitesse sera donc limitée à 80 km/h sur les routes secondaires à double sens ne possédant pas de terre-plein central.

Si l'on fait un rapide tour d'horizon européen voici ce que l'on constate en se servant des sites legipermis et wikipedia et en prenant un certain nombre de pays européens représentatifs, incluant notamment tous ceux qui ont déjà adopté la limitation à 80 km/h sur les routes :

Limitations de vitesses par pays.

Limitations de vitesses : tri par tués / millions d'habitants.
Limitations de vitesses : tri par tués / milliards de km parcourus.

A première vue la limitation de vitesse à 80 km/h semble efficace, puisque les pays qui l'ont adoptée ou qui s'en rapprochent le plus sont ceux qui enregistrent la mortalité la plus faible tant par rapport aux habitants que par rapport aux kilomètres effectués.

D'un autre côté les « bons élèves » se retrouvent majoritairement dans les pays du nord et les « mauvais élèves » dans les pays du sud, mais on se doute quand même un peu pourquoi...

Il ne devrait donc pas y avoir de débat et la mesure devrait être acceptée par tout le monde sans discussion, les chiffres parlant d'eux-mêmes ; cependant on voit bien qu'il en est en matière de sécurité routière comme pour le réchauffement climatique ou les vaccins, la France est partagée en deux avec les « pour » s'opposant aux « contre », et avec quasiment le même système d'argumentation basée essentiellement sur de fausses informations ou des informations déformées ; ainsi les « contre » utilisent les mêmes stratagèmes que les climatosceptiques ou les anti-vaccins intégristes (ces derniers ne devant pas être confondus avec les pro-vaccins qui sont anti-obligation vaccinale pour des raisons brièvement évoquées mais non approfondies dans mon billet 11 vaccins obligatoires, pour quoi faire ? )

Commençons par regarder les « arguments » des usual suspects, par exemple ceux de la ligue (non pas des gentlemen extraordinaires mais) des conducteurs qui propose de signer une pétition dans laquelle on peut lire (avec mes commentaires en bleu) une injonction à l'attention du ministre de l'Intérieur :
  • Attendu que vous projetez de baisser les limitations de vitesse à 80 km/h sur les routes (il ne s'agit pas de toutes les routes, seulement des routes secondaires à double circulation non pourvues d'un terre-plein central, mais c'est astucieux de laisser penser aux gens que cette limitation s'appliquerait à toutes les routes)
  • Attendu que déjà, avec les limitations de vitesse actuelles, plus de 46.900 PV pour excès de vitesse sont dressés chaque jour, et 13 millions de points de permis sont retirés chaque année (comme si le nombre de PV et de points de permis retirés devaient entrer en considération face aux morts et aux blessés sur les routes)
  • Attendu que, sur des routes truffées de radars-pièges (fixes, mobiles, et bientôt l'armada de voitures-radars avec chauffeurs), une baisse des vitesses-limite entraînera une explosion totalement insupportable des PV (pour la ligue les radars sont des pièges, pour moi ils permettent plutôt de limiter la vitesse simplement par leur présence, ce qui est plutôt rassurant, et comme je respecte les limitations je ne me sens nullement piégé par leur présence ; quant aux PV qui vont exploser, ils seront insupportables essentiellement pour les délinquants, je ne me sens pas concerné personnellement)
  • Attendu que cette baisse n'a aucun fondement en matière de sécurité routière - on dispose même de données qui montrent qu'augmenter la vitesse ne nuit pas à la sécurité : en 2012, la vitesse moyenne a augmenté en France. Et pourtant, le nombre de tués sur la route a diminué de presque 8%. C'était déjà le cas entre 1998 et 2002, avec une baisse du nombre de décès sur les routes de 15 % (pas de fondement en matière de sécurité routière ?  Sans blague !  Nous allons voir ce qu'il en est des « données qui montrent qu'augmenter la vitesse ne nuit pas à la sécurité »)
  • Je vous demande de mettre un terme immédiat au projet de baisse des limitations de vitesse. (signez la pétition si le cœur vous chante, moi je ne le ferai pas pour les raisons qui vont suivre)
Après la pétition voyons ce que nous dit la ligue de défense des conducteurs (et d'attaque des autres conducteurs n'adhérant pas à son idéologie) avec ses vérités résumées habilement sous le titre Pourquoi il ne faut pas baisser la limitation de vitesse à 80 km/h sur route (encore une fois ce n'est pas sur toutes les routes...) en reprenant chacun de ses « arguments » au nombre de 7 :

1 - Pas d'impact sur la pollution : Les études menées par des organismes de surveillance de la qualité de l’air montrent que passer d’une vitesse de 90 à 80 km/h entraîne un rejet plus important de composés organiques volatils, et n’a qu’un impact minime sur les émissions d’oxyde d’azote.  Sans compter que plus on passe de temps sur la route, plus on pollue !
  • Ce n'est pas l'avis de l'ADEME qui dit dans le résumé de son étude publiée en 2014 Impacts des limitations de vitesse sur la qualité de l'air, le climat, l'énergie et le bruit : L'objet de cette étude est une analyse bibliographique des travaux d'évaluation des impacts des limitations de vitesse sur la qualité de l'air. Conclusion : au-dessus de 70 km/h, les réductions de vitesse ont un effet plutôt positif sur les émissions de particules et d'oxydes d'azote. En dessous de 70 km/h, cet effet est plutôt négatif. En pratique, la situation est plus complexe puisqu'il faut tenir compte de l'effet de la limitation de vitesse sur la congestion. Le passage de 80 à 70 km/h d'une voie congestionnée va dans le bon sens pour la qualité de l'air, car il favorise la fluidité du trafic. Une évaluation a posteriori serait toutefois nécessaire pour évaluer finement les effets réels sur la qualité de l'air.
2 - Chez nos voisins européens, on roule plus vite qu'en France et il y a moins de morts sur les routes : En 2012, le Danemark et l’Angleterre ont vu leur mortalité routière baisser à trois décès pour 100 000 habitants. Pourtant, le Danemark a augmenté les limitations de vitesse de 110 à 130 km/h sur son réseau autoroutier. Et au Royaume-Uni, on roule à 100 km/h (60 miles) sur le réseau secondaire. En Allemagne, où on roule aussi à 100 km/h sur le réseau secondaire, et sans limitation de vitesse sur une partie des autoroutes, le nombre de tués sur la route a été le même qu’en France en 2013, pour 20 % d’habitants en plus. D’autres pays réfléchissent à relever leurs limitations de vitesse : c’est le cas actuellement au Luxembourg et en Suisse.
  • On a vu plus haut ce qu'il fallait en penser, « chez nos voisins européens » du nord on roule majoritairement moins vite et la mortalité est plus faible ; au Danemark ils se sont alignés sur la France en ce qui concerne le réseau autoroutier, oui et alors ? on parle ici du réseau secondaire, et encore pas dans sa totalité, et les Danois y roulent justement à 80 km/h  ; au Royaume-Uni bien que la vitesse soit limitée à 96-97 km/h la vitesse réelle est bien plus basse, estimée à 77 km/h (source moto-net,  « Concernant le Royaume-Uni, la vitesse maximale autorisée est limitée à 97 km/h sur les routes rurales, mais la vitesse moyenne réellement pratiquée est de 77 km/h car cette partie du réseau routier ne permet pas de rouler plus vite. » ; quant à l'Allemagne, si le nombre de tués est similaire à celui de la France (3777 morts en 2015, contre 3784 en France), par contre celui des blessés graves est sans commune mesure : 67732 en Allemagne contre 26635 chez nous, soit un rapport de 2,5 qui s'aggrave encore quand on considère le nombre de blessés légers : 321803 en Allemagne contre 46413 en France, soit un rapport de 6,5 en notre faveur ! Cela s'explique par une circulation essentiellement de type urbain chez nos voisins (source sciencesetavenir) à quoi le professeur Claude Got ajoute « Certes, certaines portions d'autoroute en Allemagne n'ont pas de limitation officielle de vitesse. Cela ne veut pas dire pour autant que les véhicules y roulent tous à tombeau ouvert. La vitesse maximum conseillée y est de 130 km/h. Et en cas d'accident, certaines compagnies d'assurance réduisent leurs remboursement si la vitesse est par trop supérieure à cette limite conseillée » ; et en ce qui concerne la Suisse (où on nous dit que la limitation à 80 km/h est entrée dans les mœurs depuis longtemps...) et le Luxembourg (seulement 10% des habitants seraient favorables à une absence de limitation sur...les autoroutes !), on peut douter de leur volonté de relever leurs limitations de vitesses, même s'ils y réfléchissent, et à supposer qu'ils le fassent on a vu avec l'Allemagne et le Royaume-Uni qu'on ne pouvait pas comparer facilement deux situations assez différentes.
3 - Il est faux de relier systématiquement vitesse et mortalité : Des études indépendantes montrent que la formule mathématique sur laquelle se base la Sécurité routière (1% de vitesse en moins = 4% de morts en moins) est fausse. Si elle était exacte, il suffirait d’ailleurs de réduire la vitesse de 25 km/h pour qu'il n'y ait plus aucun mort sur les routes de France… La preuve : en 2012, la vitesse moyenne a augmenté en France. Et pourtant, le nombre de tués sur la route a diminué de presque 8%. C’était déjà le cas entre 1998 et 2002.
Pour vraiment diminuer le nombre de morts, l’Etat ferait mieux d’entretenir le réseau routier - le facteur infrastructure est présent dans 40% des accidents mortels.
  • Argument fallacieux du «  il suffirait d’ailleurs de réduire la vitesse de 25 km/h pour qu'il n'y ait plus aucun mort sur les routes de France » qui consiste à multiplier bêtement 4 par 25 pour obtenir 100, ce qui n'a aucun sens et montre un désir de tromper avec des raisonnements simplistes ; il est bien évident qu'il est hors de question de limiter la vitesse en-dessous de certains seuils, il s'agit donc de ce que l'on appelle un strawman ou sophisme de l'« homme de paille » en français ; par ailleurs, avancer que pour « vraiment diminuer le nombre de morts, l’Etat ferait mieux d’entretenir le réseau routier » est également un sophisme, car il n'est là aussi pas question de négliger l'entretien du réseau routier, cependant mettre sur le dos de ce dernier 40% des accidents mortels sans préciser que la vitesse a certainement joué un rôle elle aussi est malhonnête, la plupart des accidents sont multifactoriels et la vitesse trop élevée reste un des facteurs les plus importants ; quand le réseau routier est de mauvaise qualité le conducteur se doit de réduire sa vitesse, c'est ce que font notamment...nos amis britanniques (qui ne se classent même pas dans les 20 meilleurs au monde pour la qualité du réseau, la France étant 8ème) qui ne roulent qu'à 77 km/h sur un réseau routier limité à 96 km/h !
4 - Des risques en plus pour le conducteur : Si on abaisse la vitesse à 80 km/h, les voitures et les motos iront à la même vitesse que les camions, ce qui multiplie le risque de dépassements dangereux. En augmentant encore une fois le nombre de panneaux et les différences de limitations, on détourne l’attention du conducteur de la route. Et plus celui-ci roule lentement, plus les risques de somnolence ou d’utilisation du smartphone sont élevés.
  • Là on ne voit pas très bien le problème, si la vitesse est limitée à 80 km/h et qu'un camion roule devant soi à 80 km/h pourquoi vouloir le dépasser ? Quant aux risques de somnolence au volant ils sont bien réels, mais surtout sur les autoroutes ; et dans ce cas il y a un moyen d'y remédier : faire une pause ; idem pour téléphoner, utiliser son smartphone au volant n'est pas une obligation sauf pour ceux qui croient que la Terre va s'arrêter de tourner s'ils ne répondent pas dans la seconde à un appel. Tout cela relève de l'éducation et devrait être une priorité dès l'école, car on voit bien que pour les personnes d'un certain âge qui n'ont jamais été vraiment sensibilisées aux problèmes de sécurité routière la pilule est difficile à avaler.
5 - Une perte de 39,5 milliards d'euros par an pour l'économie française : Diminution des distances moyennes parcourues, temps de livraison plus longs… selon les études de plusieurs économistes reconnus, le coût économique engendré par une baisse des limitations de vitesse s’élève à 39,5 milliards d’euros par an, soit presque deux points de PIB. Sans parler du renouvellement de tous les panneaux !
  • Encore un argument fallacieux sorti d'on ne sait où, le chiffre de 39,5 milliards d'euros semblant surgir du chapeau d'un prestidigitateur ; sur les routes secondaires concernées la « perte de temps » est facilement chiffrable : Le Monde met en ligne un calculateur qui permet de se faire une idée de cette « perte de temps » : en ce qui me concernait quand je travaillais et que j'avais 20 km à faire pour aller au boulot, la « perte de temps » était de 2 minutes, sachant que bien souvent je voyais quelqu'un me dépasser au début de mon trajet et je le retrouvais quelques voitures devant moi en approchant de mon lieu de travail, bref la circulation routière avait fait que je l'avais rattrapé sans même y penser ; et j'avais fait moi-même l'expérience en essayant différents styles de conduite (sportive, nerveuse, calme ou simplement normale) et j'avais constaté que sur 20 km les écarts de temps se chiffraient en quelques minutes de « gagnées ou de perdues », bref pas de quoi fouetter un chat, et j'avais dès lors opté pour une conduite relax, ce qui me permettait d'arriver au travail plus détendu. Quant au renouvellement des panneaux, voici le prix : 68 euros hors taxes. Le prix total est estimé à environ 1,6 millions d'euros, nous sommes donc très très loin des montants faramineux que nous montre la ligue qui tente de nous faire croire que ce remplacement se chiffrerait « en milliards d'euros » ; quant aux « économistes reconnus » qui auraient chiffré le coût économique à 39,5 milliards il s'agit en fait d'un certain Jean Poulit (ancien directeur général de l'Institut géographique national...) qui sortait ce chiffre de son chapeau en 2014 en avançant des calculs plutôt vaseux.
6 - Les flashs des radars multipliés par quatre : La Ligue de Défense des Conducteurs a mené l’enquête sur les radars les plus lucratifs de France. Résultat : ceux qui flashent le plus sont majoritairement installés à des endroits où la vitesse a été abaissée. Lorsque la limitation de vitesse est abaissée au niveau d’un radar, la rentabilité de celui-ci est multipliée jusqu’à quatre fois. 
  • Euh oui, et alors ? Que les radars qui flashent le plus soient installés là où la vitesse a été abaissée est donc considéré par la ligue comme une anomalie ; personnellement je me dis que si la vitesse a été abaissée il est assez normal qu'on veuille contrôler que les conducteurs respectent bien la nouvelle limitation de vitesse ; quant au qualificatif de « lucratifs » appliqué aux radars on voit immédiatement le biais idéologique des délinquants routiers qui considèrent que s'ils sont verbalisés c'est uniquement pour alimenter les caisses de l'Etat.
7 - Une explosion des PV et des retraits de permis... et des chômeurs : Avec les limitations actuelles, plus de 34 500 PV pour excès de vitesse sont dressés chaque jour, et plus de 14 millions de points de permis sont retirés chaque année. Les conséquences sociales sont dramatiques : 90 000 personnes perdent déjà leur permis chaque année, et une sur trois perd son emploi par la suite. Sur des routes truffées de radars-pièges, une baisse des limitations entraînera inéluctablement un doublement ou un triplement de ces chiffres.
  • On se pince pour le croire, ainsi pour réduire le nombre de chômeurs, en suivant ce raisonnement, il suffirait de ne plus verbaliser les délinquants routiers et donc ne plus enlever de points quand des infractions graves sont commises, comme le dépassement des vitesses autorisées. Par ailleurs combien, parmi les 14 millions de points de permis retirés chaque année, le sont pour des causes autres que les franchissements de vitesse autorisée ? Quid de l'alcoolisme au volant, de griller un feu rouge ou prendre un sens interdit ? Le site planetoscope nous dit « Chaque année environ 90 à 100 000 permis sont retirés suite à des infractions. Au total ce sont 14 millions de points qui ont été enlevés aux permis des conducteurs français sur une année (2012) et 600.000 personnes rouleraient sans permis. » ; le chiffre de 14 millions vient donc de là, mais petit problème, il concerne tous les délits entrainant la suppression de points et pas seulement le non respect des limitations de vitesse.

Comme on peut facilement le constater, les « arguments » de la ligue des mauvais conducteurs sont plutôt faiblards et, sans jeu de mot (quoique...) ne tiennent pas la route, tout comme ses adhérents avinés qui roulent un peu trop vite dans les virages.

Et pour terminer je ne résiste pas à la tentation de vous montrer également la copie d'une vieille connaissance, j'ai nommé le sieur Beauzamy, alias Beauzo le clown, qui nous a pondu en décembre dernier une étude de son cru intitulée Réduction de la limite de vitesse sur certains axes routiers dans laquelle il nous rappelle les mêmes contre-vérités que l'on peut trouver chez les ligueurs (à mon avis c'est lui qui les a inspirés) :
  • On lit souvent dans la presse une formule du type : "baisser la vitesse maximale de 1% entraîne une baisse de 1% du nombre d'accidents, de 2% du nombre de blessés, et de 4% du nombre de tués". En tant que mathématiciens professionnels, nous pouvons certifier qu'une telle formule est entièrement dépourvue de contenu scientifique. Elle n'est invoquée que par des dogmatiques qui veulent donner une apparence scientifique à leurs dogmes.
Quelle perspicacité, il décrit admirablement son mode de fonctionnement en tentant maladroitement de l'imputer aux autres !


Lectures utiles :