dimanche 19 août 2018

Nous n'avons besoin que de 60 stations de surface !

Le titre de ce billet est volontairement provocateur.

Bien sûr que plus nous avons de stations pour mesurer les températures et plus notre confiance dans les résultats est élevée.

Cependant, même en réduisant plus ou moins drastiquement le nombre de stations on s'aperçoit que cela ne change pas grand chose en ce qui concerne les anomalies de températures (pour les températures absolues c'est apparemment une autre histoire)

C'est l'excellent site ...and Then There's Physics qui me le rappelle (je l'avais déjà lu quelque part) :
Since surface temperature changes are correlated over distances of about 1000 km (it does depend somewhat on the latitude of the stations), it turns that you only need about 60 stations to produce a reasonable surface temperature dataset. 
Étant donné que les changements de température de surface sont corrélés sur des distances d'environ 1000 km (cela dépend quelque peu de la latitude des stations), il suffit d'environ 60 stations pour produire un ensemble de données de température de surface raisonnable.
Et il fournit l'outil qui permet de s'en rendre compte soi-même, sur le site tools.ceit.uq.edu.au

En fait l'information date d'il y a plus de 3 ans et était disponible sur le site skepticalscience dont la tâche essentielle est de réfuter toutes les tentatives de désinformation de la part de la communauté climatosceptique (avec l'aide financière de qui-vous-savez) ; je pense donc que c'est sur ce site que j'avais déjà pris connaissance de cet outil, mais j'avais oublié qu'il existait.

Un tutoriel de l'outil est disponible sur cette vidéo (en anglais) : youtube

Chacun de vous peut donc se livrer à un petit exercice consistant à sélectionner une seule station, ou les stations d'un pays, ou celles d'une région, et les comparer avec ce que l'on connait des anomalies de températures globales que l'on peut reconstituer avec un autre outil bien connu, woodfortree :

Evolution  des températures depuis 1880 (je présume par rapport à la moyenne 1880-2018) ; source woodfortrees
De ce graphique comprenant les trois sources déjà citées dans mon précédent billet on peut remarquer que depuis 1880 la température globale aurait augmenté grosso modo d'environ un degré et demi (de -0,5 à +1), la hausse étant de près de un degré depuis la fin des années 1970s (de 0 à +1)

Maintenant je vais me livrer à plusieurs « manipulations » de mon outil afin de voir ce que cela donne quand on sélectionne les stations (chaque fois évidemment j'indiquerai les critères de sélection)

Une seule station : Toulouse Blagnac.
Résultat de Toulouse Blagnac : environ +1,5°C depuis les années 1970s

J'ai choisi cette station parce qu'elle est chère à mon cœur, et je m'aperçois de deux choses :
  1. pas de données avant 1950, dommage ;
  2. fortes variations « temporaires » avec une coupure dans les années 1980s
Bon cette station n'est peut-être pas significative, de plus elle est située vraisemblablement dans l'aéroport de Toulouse Blagnac, donc peut-être victime de l'effet de chaleur urbain, bien que celui-ci soit très certainement ajusté (je ne pense pas un moment que les météorologues soient des crétins ou des comploteurs)

Alors voyons une autre station, au hasard (vous pouvez en choisir une autre, be my guest)

Une seule station : Brest.
Résultat de Brest : environ +1°C depuis les années 1970s

Donc Brest est plutôt en ligne avec les données globales qui disent à peu près +1°C depuis les années 1970s, mais on ne saura rien pour les températures depuis au moins le début du siècle, dommage.

Alors traversons la France et allons à Nice :

Une seule station : Nice.

Résultat de Nice : environ +1°C depuis les années 1970s




















Je fais une pause pour simplement signaler que mes estimations sont faites « à vue de nez » en observant les graphiques, rien donc de mathématiquement précis dans les chiffres que je donne, cependant ce qui compte c'est la « vue globale », pas les détails au dixième de degré près ; et jusqu'à présent les graphiques sont plutôt cohérents entre eux, par exemple vous pouvez remarquer à chaque fois ce gros creux entre 1980 et 1990, preuve qu'il devait y avoir à cette époque « quelque chose » que nous allons essayer de confirmer avec une vue d'ensemble du territoire français :

Toutes les stations de France (en n'oubliant pas...la Corse)
Résultat de la France : environ +1°C depuis les années 1970s ; environ +1,5°C depuis 1900.

Et là miracle, nous tombons sur des valeurs très proches des données globales déjà vues plus haut :
[…] la température globale aurait augmenté grosso modo d'environ un degré et demi (de -0,5 à +1), la hausse étant de près de un degré depuis la fin des années 1970s (de 0 à +1)
Et entre 1980 et 1990 on aperçoit bien le fameux « trou » déjà repéré dans les trois précédents graphiques !

Et en poussant le bouchon un peu loin on pourrait presque dire que la station de Nice représente assez bien l'évolution des températures pour l'ensemble du territoire français !

Essayons maintenant de voir ce que cela donne au niveau européen :

Toutes les stations Européennes (en omettant la Russie)
Résultat de l'Europe : environ +1°C depuis les années 1970s ; environ +1,5°C depuis 1900.

Etonnant, non ? Et avec une nette dépression entre 1980 et 1990, tout comme en France et dans les trois stations françaises sélectionnées...

On pourrait continuer ce petit jeu très longtemps, je vais terminer avec une seule station à l'autre bout de la planète, choisie au hasard (je n'en ai pas vérifié d'autres, à vous de vous y coller si l'envie vous prend)

Une seule station : l'ile de Pâques.
Résultat de l'ile de Pâques : environ +1°C depuis les années 1970s.

Tiens donc, et toujours ce « trou » entre 1980 et 1990, comme si l'ile de Pâques était connectée à l'Europe, étrange non ?

Bref nous avons bien la démonstration qu'il n'est nul besoin de parsemer la planète d'une station météo tous les kilomètres carrés pour s'apercevoir que la température globale augmente bel et bien, et que les chiffres qu'on nous donne (on nous dit souvent un degré de plus par rapport à l'ère préindustrielle ou 0,8°C quelque chose par rapport aux années 1970s) ne sont pas particulièrement « catastrophistes » ; ils sont simplement alarmants, alarmants dans le même sens qu'une alarme anti-incendie nous avertit d'un danger que nous avons intérêt à prendre au sérieux.

Le site andthentheresphysics de son côté s'est livré au même genre d'exercice afin de voir les différences dans les tendances et voici ce que cela donne :

4 tendances selon le nombre de stations prises en compte.

Nous avons donc les 5451 stations que compte la planète ainsi que d'autres ensembles plus restreints allant de 544 à seulement 65 stations (dommage que le détail des stations ne soit pas fourni, mais chacun est libre de faire le travail et de vérifier avec ses propres données)

On voit clairement que les droites de tendances ne sont pas significativement éloignées les unes des autres, elles montent toutes d'environ 1 à 1,1°C (de -0,6-0,5 à +0,5-0,6) depuis l'an 1900, mais il faut dire que sur ce graphique on voit assez clairement d'où l'on part et où l'on arrive alors que sur ceux que j'ai montrés auparavant l'absence de droite de tendance empêchait de définir les points de départ et d'arrivée ; en fait il faut minorer mes chiffres, car on voit bien que ces points de départ et d'arrivée ne coïncident pas, ceux des droites de tendances sont situés plus bas que les courbes elles-mêmes, environ 0,4°C plus bas pour l'an 1900 et 0,1 à 0,2°C plus bas pour 2018.

Dans les commentaires on peut lire de véritables experts (pas des rigolos auto-proclamés experts comme on peut en voir sur Skyfall ou WUWT) comme par exemple :

Andrew E Dessler says:
August 18, 2018 at 6:45 pm
Worth explicitly stating that this is true for *anomalies*, but not for absolute temperature. For absolute temperature, you’d need a very very dense network (probably every few 10s of meters, in order to get differences in surface type). That’s why we don’t really know the absolute temperature of the planet, but can nonetheless measure the temperature change very accurately. 
Il est important de dire explicitement que cela est vrai pour * les anomalies *, mais pas pour la température absolue. Pour une température absolue, vous avez besoin d'un réseau très dense (probablement tous les 10 mètres, afin d'obtenir des différences de type de surface). C'est pourquoi nous ne connaissons pas vraiment la température absolue de la planète, mais pouvons néanmoins mesurer très précisément le changement de température.
Andrew Dessler a sa fiche wikipedia qui le qualifie de climatologue (climate scientist) et nous informe qu'il est professeur en sciences de l'atmosphère à l'université du Texas, une toute autre pointure qu'un Jean-Pierre Bardinet qui intervient à tout propos dès que le climat est évoqué sans avoir la moindre compétence (et légitimité) pour le faire.

Victor Venema says:
August 18, 2018 at 2:45 pm
Yes, you do not need that many stations to compute the large-scale long-term trend from station observations.
You do need more stations in praxis, so that you can compare them with each other and remove changes due to changes in the way temperature was measured. Otherwise those 60 stations would not be reliable. #homogenisation
You need more stations for spatial information on how the climate system works. #ElNino
You need more stations for more accurate monthly, seasonal, annual and even decadal averages and to thus avoid even more stupid “hiatus” discussions.
The Global Climate Observing System (GCOS) is working on a plan for a global climate reference station network (similar to the US reference network) with stable measurements at pristine locations. For such a network you do not need that many stations if you use it as the stable backbone of the entire system and use the other stations for higher-resolution spatial and temporal information.
https://rmets.onlinelibrary.wiley.com/doi/full/10.1002/joc.5458
Oui, vous n'avez pas besoin de nombreuses stations pour calculer la tendance à long terme à grande échelle à partir des observations d'une station.
Vous avez besoin de plus de stations dans la pratique, de sorte que vous pouvez les comparer les unes aux autres et supprimer les changements dus aux changements de la façon dont la température a été mesurée. Sinon, ces 60 stations ne seraient pas fiables. # homogénéisation
Vous avez besoin de plus de stations pour obtenir des informations spatiales sur le fonctionnement du système climatique. #ElNino
Vous avez besoin de plus de stations pour obtenir des moyennes mensuelles, saisonnières, annuelles et même décennales plus précises et éviter ainsi des discussions encore plus stupides sur le "hiatus".
Le Système mondial d’observation du climat (SMOC) élabore actuellement un plan pour un réseau mondial de stations de référence pour le climat (similaire au réseau de référence des États-Unis), avec des mesures stables dans des endroits immaculés [i.e. non contaminés]. Pour un tel réseau, vous n'avez pas besoin de beaucoup de stations si vous l'utilisez comme épine dorsale stable de tout le système et utilisez les autres stations pour obtenir des informations spatiales et temporelles de résolution supérieure.
Victor Venema appartient à l'institut de météorologie de l'université de Bonn, une autre pointure donc qu'un Frédéric Decker, ce présentateur météo qui se laisse facilement embobiner par le climatosceptique Hacène Arezki.

Eric Steig says:
August 18, 2018 at 3:23 pm
We wrote about this right after the CRU hack in 2009. http://www.realclimate.org/index.php/archives/2009/12/are-the-cru-data-suspect-an-objective-assessment/
You actually only need about 30 stations, as we showed (though the figure has disappeared — I’ll try to find it and get it back up!).
Nous avons écrit à ce sujet juste après le piratage de CRU en 2009. http://www.realclimate.org/index.php/archives/2009/12/are-the-cru-data-suspect-an-objective-assessment/
En fait, vous n'avez besoin que d'environ 30 stations, comme nous l'avons montré (bien que le chiffre ait disparu - j'essaierai de le trouver et de le récupérer!).
Eric Steig est professeur de sciences de la Terre et de l'espace à l'université de Washington et son palmarès au niveau des parutions en matière de climat est d'une toute autre ampleur que les rachitiques productions d'un Benoit Rittaud.

Il est intéressant de lire quasiment tous les autres commentaires (à l'exception notable de ceux de Richard Tol qui n'apportent jamais grand chose) contrairement aux sites climatosceptiques auxquels nous sommes habitués dans lesquels il peut éventuellement exister quelques pépites à extraire de la gangue trollesque (ce qui est d'ailleurs cocasse c'est que les climatosceptiques sont ceux qui trollent le plus leurs propres sites par leur commentaires à côté de la plaque)

Richard Tol, le troll hirsute.

*****

A lire également :

Caramba, encore raté !

Copyright Hergé

Hier je narrais les élucubrations de deux olibrius qui croient dur comme fer que c'est uniquement le soleil qui commande au climat et que les températures vont bientôt baisser pendant les dix ans qui viennent (au moins)

Aujourd'hui penchons-nous sur une autre divagation que l'on peut admirer dans la même source, à savoir l'indépassable site Skyfall, qui dans un billet de l'ineffable Usbek daté de juillet 2016 (deux ans déjà) et intitulé abusivement Bulletin des climato-réalistes n° 38 (ce qui est abusif c'est l'emploi du mot réaliste qui n'a pas sa place dans ce site) nous affirmait sérieusement :
2016 ne sera pas l’année la plus chaude

C’est le pronostic de Roy Spencer : du fait du refroidissement rapide de la troposphère moyenne (une chute de 0,37 °C en 2 mois), 2016 ne sera probablement pas l’année la plus chaude enregistrée.
Belle prédiction qui se révéla...foireuse !

En effet, après 2015 qui fut en son temps la plus chaude, 2016 lui a ravi la première place, et peu après 2017 lui a contesté la deuxième ; comme le précisait ONU Info en janvier 2018 dans L’OMM confirme que 2017 se classe parmi les trois années les plus chaudes jamais observées :
Il est désormais confirmé que les années 2015, 2016 et 2017, qui s'inscrivent clairement dans la tendance au réchauffement sur le long terme causée par l'augmentation des concentrations atmosphériques de gaz à effet de serre, sont les trois années les plus chaudes jamais enregistrées. C'est toujours 2016 qui se trouve en tête de liste, alors que 2017 décroche le record de l'année sans Niño la plus chaude jamais constatée, ce dernier phénomène étant connu pour pousser à la hausse la moyenne mondiale des températures.
Avec 1,2 °C de plus qu'à l'époque préindustrielle, 2016 conserve le statut d'année la plus chaude. En 2015 et 2017, l'écart de la température moyenne par rapport aux valeurs préindustrielles était de 1,1 °C. Il est quasiment impossible de départager ces deux années car la différence de température est inférieure au centième de degré, soit moins que la marge d'erreur statistique.
Ainsi début 2018 nous en étions au classement suivant :
  1. 2016
  2. 2015-2017 ex-aequo
Donc non seulement 2016 fut l'année la plus chaude en son temps, mais deux ans plus tard elle conserve toujours sa première place et ne sera certainement pas détrônée par 2018 qui devrait se retrouver aux environs de la troisième place.

Voilà ce qui arrive quand on se fie aveuglément à un climatosceptique notoire tel que Roy Spencer et qu'on le suit avec confiance quand il fait un pas en avant au bord du précipice.

Mais que voulez-vous, quand dans le même billet on rend hommage à un certain Marcel Leroux (Marcel qui ?) qui fut l'inventeur des célèbres anticyclones mobiles polaires (AMP pour les fainéants) et dont la notoriété n'a guère dépassé les limites du département du Rhône, alors tout est possible, comme par exemple prévoir un âge glaciaire pour les décennies à venir (bon d'accord, je force un peu le trait, mais pas tant que ça à la réflexion)

Evidemment 2016 sera bientôt battue et la prédiction de Roy Spencer deviendra alors réalité, quand il disait, si l'on en croit Usbek, que « 2016 ne sera probablement pas l’année la plus chaude enregistrée » !

C'est comme les montres qui ne fonctionnent plus, elles donnent l'heure exacte deux fois par jour.

Ah oui quand même, pour expliquer l'erreur d'appréciation (pour être gentil) du sieur Usbek qui se référait à Roy Spencer, ce dernier ne s'est effectivement pas trompé, car ses courbes, « comme par hasard », montrent 2016 largement distancée par...1998 !
UAH, source woodfortrees
L'explication est simple, il s'agit de la température de la basse troposphère, et tout le monde sait que dans ces données les événements El Niño sont largement amplifiés, comme on peut également le voir chez le concurrent de Roy Spencer, qui ne montre pas exactement la même chose cependant :

RSS, source woodfortrees
Comme on peut le constater chez RSS 2016 arrive en deuxième position après 1998, alors que chez Spencer-UAH elle est en troisième position juste avant semble-t-il 2012 ; et pourtant ces deux organismes, UAH et RSS, utilisent exactement les mêmes données provenant des satellites, mais qu'ils traitent différemment puisqu'ils arrivent à des résultats peu concordants ; cerise sur le gâteau il existe de nombreuses versions des données issues de ces deux organismes (davantage je pense de la part d'UAH qui a fait l'objet de sévères critiques)

Différentes versions des données UAH, source wikipedia

Evidemment RSS n'est pas en reste si l'on en croit le numéro de la dernière version : RSS V4.0

Et c'est normal qu'il y ait des versions différentes, car les températures issues des satellites ne sont évidemment pas mesurées avec un thermomètre, les organismes en charge de les calculer utilisent des modèles et de complexes équations que je serais bien en peine d'expliquer ici, et en tenant compte du fait que les satellites dérivent et que leurs instruments peuvent éventuellement « délirer » on comprend qu'au final la confiance qu'on peut avoir dans ces températures ne peut qu'être toute relative.

Mais les données de surfaces, qui sont, elles, issues de véritables instruments de mesure fournissant par conséquent des chiffres directs non calculés, font cependant elles-aussi l'objet d'ajustements nécessités (et parfaitement justifiés) par exemple par le déplacement d'une station météo ou par un changement d'instrument de mesure (certains thermomètres sont plus précis que d'autres) ; on parle aussi d'homogénéisation des températures (comme expliqué ici), ce que les climatosceptiques à tendance complotiste (bel oxymore) traduisent par manipulation des températures.

Alors voyons ce que nous disent les températures de surface pour la même période (afin de rester cohérent) :

Températures de surface, source woodfortrees

Sans surprise, chacun des trois organismes (NASA gistemp, Hadcrut et Best) donnait 2016 vainqueur pour les températures de surface, c'est-à-dire là où nous vivons, là où nous mesurons les températures avec des instruments appelés thermomètres, bien qu'il soit nécessaire parfois de corriger certaines données brutes, mais apparemment de manière coordonnée puisque ces trois organismes arrivent aux mêmes conclusions.

Ah oui c'est vrai, j'oubliais, ces trois organismes font partie du gouvernement mondial dirigé par les Illuminati et les hommes-lézards, où avais-je la tête ?

Le véritable visage du GIEC.

samedi 18 août 2018

Le soleil, encore le soleil, toujours le soleil...

J'en connais qui vont être déçus, très très déçus...

Dans Prévisions pour le cycle solaire 25 deux rigolos amusent la galerie avec ceci :
20. Dioex | 20/03/2018 @ 0:31
Ça c’est pas mal,made in GIEC:
« on vient de rendre compte que contrairement à tout ce qu’on a dit, finalement le soleil a un impact MAJEUR sur le climat.On va même introduire un scénario de minimum de Maunder pour la route »
https://www.geosci-model-dev.net/10/2247/2017/gmd-10-2247-2017.pdf
21. Cdt Michel e.r. | 21/03/2018 @ 17:19
Dioex (#20),
Ils reconnaissent donc que leur (pseudo) science n’est pas si bien établie que ça, puisqu’il doivent tenir compte maintenant des variations de l’intensité du Soleil
Hé Hé !
23. Dioex | 21/03/2018 @ 22:52
Cdt Michel e.r. (#21),
Parfaitement, même James Hansen raconte ce genre de chose maintenant:
« However, the solar variability is not negligible in comparison with the energy imbalance that drives global temperature change. Therefore, because of the combination of the strong 2016 El Niño and the phase of the solar cycle, it is plausible, if not likely, that the next 10 years of global temperature change will leave an impression of a ‘global warming hiatus »
Bienvenue dans un nouveau hiatus climatique de 10 ans qui ne sera pas un hiatus mais probablement un refroidissement.Ces 4 derniers mois ont vu le refroidissement planétaire le plus rapide depuis 1910.Février 2018 d’après la NOAA est le 11éme février le plus chaud,on a fait un bond de 10 ans en arrière après février 2016 le plus chaud et février 2017 le numéro 2.Moins 0.57 C selon la NOAA entre février 2016 et février 2018.

L'étude en question, SolarforcingforCMIP6(v3.2) , dit notamment ceci :
Abstract. This paper describes the recommended solar forcing dataset for CMIP6 and highlights changes with respect to CMIP5. […] In the 200–400nm wavelength range, which is important for ozone photochemistry, the CMIP6 solar forcing dataset shows a larger solar-cycle variability contribution to TSI than in CMIP5 (50% compared to 35%). […] The differences in the long-term mean SSI in the CMIP6 dataset, compared to CMIP5, impact on climatological stratospheric conditions (lower shortwave heating rates of −0.35Kday−1 at the stratopause), cooler stratospheric temperatures (−1.5K in the upper stratosphere), lower ozone abundances in the lower stratosphere (−3%), and higher ozone abundances (+1.5% in the upper stratosphere and lower mesosphere). […]
On en déduit plusieurs choses :
  • Les modèles climatiques ont toujours pris en compte l'impact du soleil dans leurs calculs, contrairement à ce qu'affirment les climatosceptiques qui prétendent que seul le CO2 est considéré ;
  • Cette étude se propose simplement d'améliorer les futurs modèles climatiques dans le cadre du CMIP6, ce qui procède d'une démarche scientifique normale ;
  • On parle de « solar-cycle variabilty contribution to TSI », c'est-à-dire de la contribution de la variabilité des cycles solaires à l'irradiance solaire totale (la TSI), donc sans vraiment de rapport avec la hausse des températures sur le long-terme (causée essentiellement par le CO2 d'origine humaine) ;
  • Cela se passe dans la stratosphère, à plus de 10 kilomètres au-dessus de nos têtes.
Mais ce qui a fait bander nos deux zozos c'est cette partie :
Solar variability affects the Earth’s atmosphere in numerous and often intricate ways through changes in the radiative and energetic particle forcing (Lilensten et al., 2015). For many years, the role of the Sun in climate model simulations was reduced to its sole total radiative output, named total solar irradiance (TSI), and this situation prevailed in the assessment reports of the IPCC until 2007 (Alley et al., 2007). However, there has been growing evidence that other aspects of solar variability are major players for climate, in particular solar spectral irradiance (SSI) variations and, more recently, energetic particle precipitation (EPP).
Ils en déduisent pavloviennement que le soleil joue un rôle majeur dans l'évolution des températures et donc que le CO2 n'y est pour rien ou vraiment pas grand chose ; et accessoirement ils en viennent à prédire, tels des madame Soleil de pacotille, que les dix prochaines années vont voir une baisse des températures !

On remarquera que la prise en compte sérieuse des paramètres que sont la SSI et l'EPP date d'il y a 10 ans, puisqu'on nous dit que seule la TSI était prise en compte jusqu'en 2007 ; donc rien de bien nouveau, et on peut considérer que le dernier rapport du GIEC paru en 2013 prenait bien en considération tous les paramètres voulus concernant le soleil sans que cela ne fasse beaucoup de différence ; voyons plutôt :

Forçage radiatif moyen global du système climatique en l’an 2000 par rapport à 1750 calculé dans le cadre des travaux du GIEC, rapport GIEC 2007.(source omer7.sedoo)


Forçage radiatif moyen global du système climatique en l’an 2011 par rapport à 1750 calculé dans le cadre des travaux du GIEC, rapport GIEC 2013.(source climatechange2013)
Ainsi l'impact du soleil entre les deux rapports, avec donc quelques améliorations dans le plus récent, est de l'ordre de 0,05 watts par mètre carré, et si l'on regarde bien on a même l'impression que cet impact a baissé dans le dernier rapport !

En tout cas l'impact anthropique est de 1,6 (positif bien sûr) environ dans les deux rapports, bien supérieur par conséquent à celui du soleil, avec un ratio de 1 pour le soleil contre 32 pour le CO2 anthropique.

Je ne sais pas où le dénommé Dioex est allé chercher la citation de James Hansen, quoi qu'il en soit ce que celui-ci aurait dit ne va pas du tout dans le sens que voudrait bien lui donner notre énergumène de service, car Hansen aurait simplement signifié qu'il serait possible (plausible), voire éventuellement probable (likely) que le réchauffement climatique soit moins marqué durant les 10 prochaines années, c'est-à-dire que temporairement nous pourrions assister à un léger ralentissement de la hausse des températures comme nous en avons connu après le formidable épisode El Niño de 1998.

Il n'empêche que 2018 sera très probablement la troisième année la plus chaude depuis bien longtemps après 2016 et 2017 ; le « hiatus » post-1998 fait partie maintenant du passé et on peut déjà le considérer comme un lointain souvenir ; quant à la baisse des températures pour la prochaine décennie, elle n'est pas au programme et Dioex va devoir manger son chapeau.

Mais pour l'instant il persévère en s'enfonçant toujours plus dans son déni :
1463. Dioex | 16/08/2018 @ 17:11
Du nouveau sur le prochain cycle solaire,les prévisions d’un cycle 25 relativement faible semblent se confirmer.
https://arxiv.org/pdf/1808.04868.pdf
Bonne lecture
Dioex va être très très déçu.
Source woodfortrees

jeudi 16 août 2018

Les gorges du Viaur et le lac de Bages

Ce mercredi 15 août nous avons préféré ignorer les Pyrénées et aller plutôt vers le nord, plus exactement du côté de Rodez, afin d'éviter une éventuelle affluence ascensionnesque, et nous avons bien fait, puisque nous n'avons vu pratiquement personne dans notre direction sur la route à l'aller et guère davantage de monde au retour ; quant à la balade elle-même, pas un seul promeneur rencontré, quelques vététistes, une paire de motocyclistes qui repéraient le parcours (une course de motocross était prévue sur ce parcours) et trois employés municipaux qui désherbaient certains endroits envahis par les ronces.

Le topo de cette balade se trouve dans le livre L'Aveyron à pieds, pages 82-83.

Voici le tracé GPS en introduction (avec l'endroit où nous avons pique-niqué à une vitesse de...43,5km/h !) :

Tracé GPS : altitude, durée et vitesse.

Nous partons donc du gros village (ou de la petite ville) de Pont-de-Salars pour très vite emprunter le Viaur que l'on longe au moyen d'un chemin ombragé (et humide…)

Un départ sympathique dans la côte de la rue principale.

Oui je sais, mon appareil a un défaut (erreur E 62:10) mais ça fait quand même des photos parfois...surprenantes !

Toujours dans la vallée du Viaur, montée vers Saint-Georges-de-Camboulas.

Peu avant de quitter le Viaur un intéressant détour par Saint-Georges-de-Camboulas nous permet d'admirer de vielles pierres tombales nous montrant qu'au 19ème siècle on pouvait mourir centenaire :

Un certain Pierre Desmazes, né en 1784 et mort en 1888.

L'église vue depuis le cimetière.

L'église vue en arrivant, ou en partant à condition de se retourner…

Par la suite une grande partie du parcours s'effectue sur le plateau sur un chemin le plus souvent ombragé, ce qui est appréciable quand on approche du milieu de la journée ; au passage on peut contempler une ferme éolienne qui se fait à peine remarquer…

Parc éolien edp.
Le même vu du satellite.

Peu après on contourne le lac de Bages que l'on ne voit quasiment jamais tellement il est éloigné du sentier (manifestement son niveau est beaucoup plus bas que son maximum :

Le lac de Bages vu depuis le satellite.
Une des rares vues du lac, avec en arrière-plan le parc éolien devant lequel nous sommes passés une heure auparavant.

Le topo-guide mentionne une balade « difficile » avec une distance de 15 kilomètres et un temps de 4 heures 15 ; nous l'avons effectuée en 4 heures et 10 minutes, en comptant une petite pause casse-croute, donc le timing est correct, par contre la cotation me semble un peu exagérée, une difficulté « moyenne » me paraissant plus appropriée.

A noter que le GPS mentionne une distance de 15,88 kilomètres, mais peut-on se fier à un GPS qui vous fait démarrer ainsi :

Ecart entre arrivée et départ, le GPS ne sait décidemment pas commencer correctement une balade…


lundi 13 août 2018

Rien ne se perd, rien ne se crée, tout se transforme (Lavoisier)

En fait Lavoisier avait copié sur Anaxagore qui aurait dit :
Rien ne naît ni ne périt, mais des choses déjà existantes se combinent, puis se séparent de nouveau.
Mais sur le forum quetedugraal le dénommé troubaa ne sait pas de quoi il s'agit :
par troubaa Hier à 21:20
bas38 a écrit:
Pour vous un "ensemble" ici l atmosphère ne peut donc pas varié sa densité... Il y a 100% si l homme envoie 5 % de plus cela ne peut ce faire que par échange!!! az mais aucunement par l augmentation de concentration... bizarre comme affirmation troubaa….

comment expliquez vous alors l'augmentation d'un tiers de la teneur en CO2 dans l'atmosphère ?

si le taux de CO2 passe de 0.03% à 0.04% il a bien fallu que ce centième de % soit perdu quelque part sachant que le total fait toujours 100%. La marge d'erreur ? (ça c'est pour vous donner l'apparence de vous aider mais attention il y a un piège...)

A moins que vous me démontriez que le total fait 100.01% maintenant.

A vous de voir !.
Troubaa se demande donc d'où vient le CO2 additionnel dans l'atmosphère, qui est passé d'une concentration de 280ppm (et non 0,03%) avant la révolution industrielle à 410ppm (et non 0,04%) aujourd'hui, soit une augmentation de 130ppm qui représente une variation de 46% (et non 0,01%, ni même 33,33% qui est la véritable augmentation de 0,03% à 0,04%)

Alors je vais le mettre sur la piste.

Le système climatique comprend trois réservoirs :
  • l'atmosphère ;
  • les océans ;
  • les continents.

Par conséquent, si la teneur en CO2 de l'atmosphère augmente, c'est que ce CO2 additionnel provient au moins d'un des deux autres réservoirs.

Un indice : le pétrole, le charbon et le gaz que nous brûlons et qui sont la cause de l'augmentation de la concentration du CO2 dans l'atmosphère ont mis des millions d'années pour se constituer, devinez où.

On relève les copies dans un certain temps, comme disait Fernand Raynaud qui parlait, lui, de refroidissement.

*****

Relevé des copies.

Troubaa répond :
par troubaa Aujourd'hui à 1:47 
Manifestement ton Têtard ne comprends même plus ce qu'il lit. A force de prendre les autres pour des cons il se ridiculise de plus en plus..... Même BAS (et le "même" n'est pas péjoratif, mais dans le sens de "tout le monde") comprend mieux que lui...

je n'ai jamais dit "troubaa se demande donc d'où vient le CO2 additionnel dans l'atmosphère". c'est du grand n'importe quoi une fois de plus. il ne comprend pas ce qu'il lit alors je vais lui réexpliquer. (je suis trop bon avec ton Têtard)

Je pose la question : si la somme des % des gaz contenus dans l'atmosphère est égal à 100%, si un des gaz augmente en % (par exemple au hasard en passant de 0.03% à 0.04%) quel autre-s gaz à vu son % diminué afin que le total soit toujours égal à 100% (niveau 6ieme une fois de plus)

Ou alors le total des % passerait à 100.01%... pourquoi pas avec le tetard.

je pense que ton Têtard à des très gros problèmes avec les maths. Après son incapacité à comprendre la différence entre l'augmentation du taux et le taux de l'augmentation (différence qu'a aussi compris aisément BAS58) il s'embrouille avec les %. il n'en rate pas une !

Le roi du copier/coller probable. De l'analyse logique : peu probable .

une fois de plus komyo tu as choisi un drôle d'olibrius comme référence.

Si ton batracien est encore tout mouillé de honte, qu'y puis je ?

Mais ne désespère pas il va continuer inlassablement a étaler son mépris et ses incompréhensions. Ce genre d'individus ne se lassent jamais tellement ils ont à prouver qu'ils sont meilleurs que les autres. Tu as pouvoir continuer à le citer fièrement pendant longtemps.

Effectivement, comme je n'ai lu que le seul commentaire de troubaa dans lequel il écrivait, noir sur blanc, « comment expliquez vous alors l'augmentation d'un tiers de la teneur en CO2 dans l'atmosphère ? » j'en ai déduit qu'il ne savait pas d'où provenait ce CO2 supplémentaire et qu'il pensait qu'il s'agissait de génération spontanée, au temps pour moi.

Donc la vraie question (qui tue) de troubaa est de savoir quel est le gaz dont la concentration a diminué, puisque celle du CO2 a augmenté (j'ai juste ?)

Si c'est bien de cette question qu'il s'agit on notera immédiatement l'incohérence dans le raisonnement de troubaa qui par ailleurs dit à qui veut l'entendre que la proportion de CO2 dans l'atmosphère c'est peanuts (dan dirait que c'est pinette, mais dan doit avoir des notions d'anglais qui datent du collège), c'est-à-dire que ce n'est rien du tout pour faire simple.

Evidemment que si le CO2 augmente en proportion dans l'atmosphère l'un des autres gaz (et ils sont nombreux) doit nécessairement diminuer, il est même probable qu'ils soient plusieurs à diminuer très légèrement.

Quoiqu'il en soit, si c'est l'oxygène (O2) ou l'azote (N) qui diminuent (encore une fois très légèrement) comme ce ne sont pas des gaz à effet de serre cela n'a aucune incidence sur le forçage radiatif.

La vapeur d'eau (H2O) augmente du moment que la température augmente, il ne s'agit pas d'un forçage mais d'une rétroaction, de plus la vapeur d'eau est très inégalement répartie sur la planète (au contraire du CO2) et n'a pas un temps de résidence très long, quelques heures à quelques jours au maximum, alors que pour le CO2 on parle en centaines d'années.

Les autres gaz à effet de serre sont en concentration infime et ne jouent pas de rôle vraiment déterminant, le plus important étant le méthane (CH4, avec 1,745ppm de concentration contre 410ppm pour le CO2)

La question de troubaa est donc en apparence intéressante mais n'a aucune utilité concernant le sujet du réchauffement climatique.

Ah oui, j'ajouterai aussi que troubaa n'a toujours pas compris deux choses :
  1. que quand Gervais et Rittaud lui disent que le CO2 est passé de 0,03% à 0,04% et que cela représente une augmentation de 0,01% c'est parce qu'ils le prennent, à raison semble-t-il, pour un imbécile ;
  2. que quand on passe de 0,03% à 0,04% cela représente une augmentation de 0,01 point de pourcentage qui équivaut à +33,33%.
Les acrobaties intellectuelles de troubaa ne serviront qu'à montrer à tous ceux qui le lisent qu'en fait il n'est que borné et n'a aucune intention d'apprendre quoi que ce soit. Mais cela je le sais depuis longtemps.