lundi 1 octobre 2018

Frédéric Decker ne connait pas les anomalies de températures

Dans mon précédent billet je montrais que Fred Decker se prenait les pieds dans le tapis avec sa « théorie » de la fonte des glaces en Antarctique qui serait due au volcanisme (voir Selon Frédéric Decker l'Antarctique fondrait à cause de ses volcans. Sérieusement ?)

Cependant son article présente un intérêt, celui de montrer des courbes de températures de stations situées dans des zones polaires, l'exercice consistant à essayer de voir la tendance sur du long terme.

On peut louer ses efforts, cependant force est de constater que l'ami Fred ne semble pas avoir compris que quand il s'agit de climatologie ce qui est important est de considérer les « anomalies » de températures, c'est-à-dire les écarts par rapport à une période de référence, afin de bien se rendre compte des véritables tendances ; malheureusement, dans son billet il ne montre que des graphiques représentant des températures absolues en essayant de tirer les courbes de tendance, sans nous dire au passage quelle est sa méthode pour calculer lesdites tendances.

Par exemple pour la station d'Ilulissat voici la courbe qu'il propose, avec en légende ses commentaires :

La courbe d’Ilulissat met un autre phénomène en évidence, notamment la courbe de tendance : une hausse assez régulière jusqu’à la fin des années 90, et une stagnation de la température depuis. Les années 20, 30 et 40 ont d’autre part connu un réchauffement significatif ainsi qu’un recul des glaces. Un rafraîchissement ou refroidissement a suivi des années 50 aux années 90, ainsi qu’une reglaciation. Ainsi, les premiers relevés satellitaires en 1979 pour surveiller l’expansion des glaces ont débuté au sommet d’une période plus froide, donc durant une glaciation pas vue depuis les années 1910.
Les moyennes décennales d’Ilulissat mettent en évidence un réchauffement marqué entre les années 1880 (-6,7°C de moyenne) et les années 20 à 49 (-3,8°C de moyenne). La moyenne a rechuté ensuite jusqu’à un pic de froid dans les années… 90 (-5,1°C) puis une hausse brutale dans les années 2000 (-3,1°C de moyenne), décennie la plus chaude. La décennie en cours voit le thermomètre rechuter de 0,7°C (-3,8°C, comme dans les années 20 et 40).
Source lameteo.org

Moi je veux bien, mais je ne suis pas sûr qu'un expert en statistiques comme Tamino serait forcément d'accord avec la courbe de tendance calculée par Decker ; celui-ci n'explique d'ailleurs pas la méthode, et nous savons qu'il en existe un certain nombre comme je l'ai montré de manière ironique (sinon humoristique) dans mes dernières Climactualités :

Différentes méthodes, suivant ce que l'on veut montrer…

Cela c'est le premier point critiquable, le deuxième étant comme je l'ai dit que ce sont des températures absolues qui sont utilisées et non des anomalies de températures que n'importe quel climatologue adoptera de préférence.

Vous me direz que la forme de la courbe sera la même dans les deux cas, et vous aurez probablement raison, mais les anomalies permettent de mieux discerner les évolutions non pas d'une station prise isolément mais de la région qui l'entoure, car comme je l'ai déjà dit dans Nous n'avons besoin que de 60 stations de surface ! « les changements de température de surface sont corrélés sur des distances d'environ 1000 km » en reprenant les mots de andthentheresphysics.

Decker semble se plaindre qu'il n'y ait pas beaucoup de stations en Arctique et Antarctique, mais là n'est pas le problème, quelques stations suffisent amplement, à condition bien sûr que leurs données soient fiables.

Comme il donne comme source un simple « KNMI » (démerdez-vous avec ça !) je suis allé chercher sur Internet de quoi il s'agissait et j'ai trouvé cet organisme néerlandais : climexp.knmi.nl

On constate immédiatement, sur la page d'accueil du site, une magnifique courbe...d'anomalies de températures !

Anomalies de températures de 1880 jusqu'à aujourd'hui.

Une critique quand même : la période de référence n'est pas mentionnée, mais il semblerait qu'il s'agisse de quelque chose comme 1940-1970, peu importe, elle pourrait être 1880-1910 ou 1980-2010 cela ne changerait en rien la forme de la courbe.

Alors j'ai essayé moi-même de voir ce que cela donnait avec la station d'Ilulissat et j'ai construit ces deux graphiques :



Evolution des températures absolues de la station d'Ilulissat.


Evolution des anomalies de températures de la station d'Ilulissat.

On peut comparer le premier de ces graphiques avec celui de Decker et on s'aperçoit qu'ils sont assez proches, les températures absolues se baladant entre un minimum de -7,5°C et un maximum de -2°C sur la période 1895-1960, alors que chez Decker sur la même période nous sommes dans une fourchette de -8°C à -2°C à la louche ; on va dire que les moyennes calculées ne sont pas exactement les mêmes mais que cela a finalement assez peu d'importance.

Alors je ne sais pas comment Decker a fait pour se procurer à partir du site KNMI des données antérieures à 1895, mais c'est certainement parce qu'il est plus intelligent que moi, parce que même quand je sélectionne « from 1870 to 2018 » j'obtiens toujours le même résultat de 1895 à 1960.

Peu importe, on remarque, comme je le disais, que les deux courbes, des températures absolues et des anomalies de températures, ont exactement la même forme, ce qui change c'est que dans le deuxième cas nous voyons parfaitement, à l'aide de la période de référence matérialisée par le zéro en ordonnées, que dans le passé les températures étaient nettement SOUS la période de référence alors que dans le présent elles se situent clairement AU-DESSUS de cette même période de référence.

Maintenant il reste à tracer à partir de ces données la « véritable » courbe de tendance, et la comparer avec celle montrée par Frédéric Decker.

Si un lecteur ayant de bonnes connaissances en statistiques veut bien se livrer à cet exercice en expliquant sa démarche, je suis preneur !

Evidemment si ma sélection se révèle fautive il ne faut pas hésiter à la corriger en m'expliquant là-aussi la méthode.

A vos marques, prêts, ne vous enfuyez pas !


4 commentaires:

  1. Modéliser des données est un art difficile, dont la règle de base est de ne jamais compliquer les choses si on peut l'éviter. Comme le disaient deux empereurs de la modélisation :
    John von Neumann : "With four parameters I can fit an elephant, and with five I can make him wiggle his trunk."
    Et George Box : "All models are wrong. Some are useful."

    Dans le cas d'une série temporelle, à moins qu'on ait une idée précise de la relation qu'il y a entre les valeurs successives, il faut se limiter à la modélisation la plus simple, à moins qu'elle soit clairement inadéquate. Dans ce cas-ci, on voit que les valeurs de températures (ou d'anomalies de températures) varient fortement d'une année à l'autre. Une simple régression linéaire ou d'un degré plus élevé ne pourra donc pas représenter les variations à court terme de la série.
    Il faudra donc utiliser des outils statistiques plus complexes (analyse des changements, modélisation non-paramétriques, prise en compte de l'autocorrélation, ...) qui dépassent mon domaine de compétence, et le cadre de ce blog.
    Mais si on en reste à une simple régression, que peut-on constater :
    - une régression linéaire, comme attendu, modélise assez mal la série (adjusted R2=0,13, mais la tendance est très significativement à l'augmentation (0,15°C/décennie, p-value=8.2E-6) : https://imgur.com/4Igf0zb
    Après, on peut décider, mais c'est arbitraire, de modéliser la série par un polynôme du second degré. C'est ce qu'a fait Frédéric Decker, mais il ne donne pas de justification pour cela. Et que constate-t-on ? Que l'ajustement n'est pas franchement meilleur (adjusted R2=0,13) : https://imgur.com/hET4Kf2
    Il serait dommage de s'arrêter en si bon chemin. Tentons d'améliorer l'ajustement du modèle en augmentant le degré du polynôme, tant qu'à ne pas justifier le choix du modèle, the sky is the limit. Et on peut constater de meilleurs résultats avec un polynôme du 4e degré (adjusted R2=0,22 !) : https://imgur.com/C7j75XV. On se demande bien pourquoi F. Decker n'a pas continué dans cette voie ...
    Moralité : cherry-picking et mauvaise analyse sont les mamelles du pseudo-scepticisme.

    RépondreSupprimer
    Réponses
    1. Je savais bien que je pouvais compter sur vous !

      Mes cours de maths sur les statistiques sont très loin et j'ai quasiment tout oublié, surtout que durant ma vie professionnelle je ne m'en suis jamais vraiment servi (j'ai plutôt utilisé les maths appliquées à l'économie pour calculer par exemple des intérêts composées, mais les machines à calculer puis les ordinateurs faisaient tout le boulot, donc même là j'ai perdu les bases) ; je crois reconnaitre en regardant vos graphiques les exemples linéaire, logarithmique et loess figurant dans le dessin humoristique de mon billet, vous confirmez ?

      Par ailleurs votre distribution de points est différente de celle que montre Decker, avec en prime quelques cassures, comment l'avez-vous obtenue ?

      Pour moi la régression linéaire a le mérite de l'extrême simplicité qui ne cherche pas à « interpréter » la courbe, c'est pour cela qu'elle a ma préférence, mais il ne s'agit évidemment que d'une préférence !

      Supprimer
    2. Mes données proviennent de KNMI (http://climexp.knmi.nl/data/bneca300_mean1_anom_a_a.txt). Il y a trois discontinuités dans la série (1917, 1935-36 et 2006). J'ose espérer que Frédéric Decker en a tenu compte, parce que les analyses peuvent donner des résultats différents selon que l'on mentionne ou non les données manquantes. Mais rien ne peut le laisser supposer en voyant son graphique.
      En parlant de régression Loess, il s'agit, comme j'an parlais plus haut, d'une régression non paramétrique (où l'analyste n'a pas à faire de choix préalable), mais dont le résultat n'aurait sans doute pas plu à F. Decker : https://imgur.com/QR7L3Ko
      Comme vous le dites, la régression linéaire est le choix de la simplicité, qui nous apprend que les températures augmentent, significativement, malgré des variations interannuelles importantes.
      Et comme d'habitude, XKCD résume bien la situation : on peut toujours trouver un modèle qui répond à ses idées préconçues, c'est pour cela qu'il faut s'entenir à des interprétations simples et justifiables.

      Supprimer
    3. « J'ose espérer que Frédéric Decker en a tenu compte »

      On va arrêter de tirer sur l'ambulance, faisons comme si...

      Supprimer