dimanche 24 mars 2019

Scepticisme à géométrie variable

Le scepticisme est apparemment quelque chose de tout relatif, on est avant tout sceptique de ce qui ne correspond pas à ses schémas mentaux, à ses croyances, à son idéologie, etc.

Mon billet sur la crosse de hockey de Michael Mann a attiré plus de cent commentaires et ce n'est pas fini…

Le dernier en date est celui-ci :

Géd, Sgag (?) et Sgag,

Je sens de la nervosité mais je ne vois rien de consistant. Balancer des liens ne constitue pas une argumentation.

Commençons par les US :
"Hansen dit le contraire ; il n’y a qu’à lire le résumé.
Muller dit le contraire : «Les ajustements ont un effet important sur les tendances de la température aux États-Unis et un effet modeste sur les tendances mondiales des terres».
Courtillot dit le contraire ..."

Je me contrefiche de l'opinion de ces personnes. La particularité, c'est le traitement USHCN et pas les données. Les ajustements sont du même ordre de grandeur pour l'Europe (voyez par exemple sous HISTALP ou Böhm 2001).

"Une belle image :
http://berkeleyearth.org/wp-content/uploads/2015/04/Figure1.png
Ah ouaip. Très belle image. Sauf que NCDC c'est la base GHCN et et que je vous rappelle qu'en global il y a ajustement de 0.4 °C entre QCU et QCA sur le XXème siècle. Cette image est une belle entourloupe parce qu'elle ne comptabilise qu'une petite partie des ajustements effectifs. Si vous doutez, vous pouvez reproduire vous même le graphique que j'ai mis en lien."

France :
"J’en ai des téraoctets."
Alors c'est parfait. Vous allez pouvoir vérifier les bases brutes GHCN et BEST. Et si vous êtes capable de démontrer quelque chose, vous expliquerez ensuite à Victor Venema qu'il ne sait pas de quoi il parle : "almost all data collected by NOAA to produce GHCN is not homogenized in advance. France is an exception."
(http://www.skyfall.fr/2015/12/06/fil-info-de-sceptiques-20154/comment-page-16/#comment-148216)

Vous êtes amusants tous les deux.

phi
Le dénommé phi est un sceptique d'un genre particulier, il doute systématiquement de ce que peuvent dire les scientifiques, en « argumentant » longuement à sa manière, mais à chaque fois c'est pour s'enfoncer un peu plus, au point qu'on finit par ne plus savoir quel était le sujet de départ qui était je le rappelle la courbe en crosse de hockey qui faisait preuve d'une exceptionnelle longévité.

Alors reprenons « sans nervosité » chaque affirmation contenue dans le dernier commentaire de phi.

Les ajustements de températures

Commençons par les US :
"Hansen dit le contraire ; il n’y a qu’à lire le résumé.
Muller dit le contraire : «Les ajustements ont un effet important sur les tendances de la température aux États-Unis et un effet modeste sur les tendances mondiales des terres».
Courtillot dit le contraire …"
Je me contrefiche de l'opinion de ces personnes. La particularité, c'est le traitement USHCN et pas les données. Les ajustements sont du même ordre de grandeur pour l'Europe (voyez par exemple sous HISTALP ou Böhm 2001).
Personnellement je me contrefiche qu'il y ait des ajustements, du moment que ces ajustements ne sont pas nécessaires mais indispensables !

Phi cite deux organismes européens mais sans donner la moindre piste pour savoir quelle est la nature des ajustements qu'ils auraient effectués ; pour HISTALP on peut lire ceci dans leur FAQ :

Why is there only homogenised data available and no original data?
Changes like stations relocation or changes in the measurement setup influence the measurments of meteorological stations. Long time series, which are used for climate research, should therefore not be used in their original form as those chances might influence climate analyses like trends for example. During homogenisation non-climatic signals are removed from the time serie according the current state-of-the-art.
Pas de données brutes disponibles, il est ici expliqué pourquoi on utilise les données homogénéisées (i.e. ajustées) et l'explication correspond parfaitement à ce que je connais du problème ; garder les données brutes serait totalement anti-scientifique, car on aurait alors une courbe inexploitable et je vous fiche mon billet que phi serait le premier à réclamer à cor et à cri une telle modification des données de températures affichées afin, croirait-il, de montrer une hausse moins prononcée !

Pour HISTALP je ne sais donc pas retrouver les données brutes, le site mentionnant seulement :
This site is dedicated to the HISTALP project and it's database, consisting of monthly homogenised temperature, pressure, precipitation, sunshine and cloudiness records for the „Greater Alpine Region“ (GAR, 4-19 deg E, 43-49 deg N, 0-3500m asl).
...en faisant suivre d'un graphique avec une magnifique….crosse de hockey !
Anomalies de températures (par rapport à 1961-1990) dans la Grande Région des Alpes.

Les Alpes semblent donc avoir connu un réchauffement récent bien plus important que le réchauffement global ; à mon avis les Autrichiens sont bien placés pour s'en rendre compte et je ne vois pas pour quelle raison ils « truqueraient » leurs courbes pour faire apparaitre un réchauffement plus important que dans la réalité, mais phi a peut-être une idée.

Chez Böhm 2001 également cité par phi voici ce qui est expliqué concernant l'homogénéisation des données :
The ALPCLIM temperature dataset was constructed from different sources of several countries (France, Germany, Switzerland, Italy, Austria, Slovenia, Croatia, Hungary and Slovakia). All series, original and pre-homogenized, were re-analysed for inhomogeneities based on the following system: homogeneity testing, adjusting and gap-closing was performed in 13 regional sub-groups of ten series using the MASH-test of Szentimrey (1999) and the HOCLIS procedure (Auer et al., 1999). HOCLIS test each series against other series in sub-groups of ten series. The break signals of one series against all others are then collected in a decision matrix and the breaks are assigned to the single series according to probability. One additional sub-group was created for the pre-1820 parts of the ten bicentennial series. The last homogenizing groups consisted of two high-elevation sites with series above 1500 m a.s.l. for the western and for the eastern Alps.
A final total of 97 single series proved to be homogenizable. The mean station distance for the 682 000 km2 of the ALPCLIM region is 80 km. Three homogenized series start as early as 1760, ten earlier than 1801 and there was 25 series in 1850. The greatest increase in station density occurred in the 1860s. The average of the adjusted series reveals a general increasing trend of approximately 0.5 K for the 150 years from the mid-19th to the end of the 20th century. The reasons for this systematic trend can be found in a mixture of specific national items and some general evolutions in the study area.
On comprend à partir de ces passages pourquoi il est indispensable d'homogénéiser des données brutes :
  • grand nombre de sources différentes (de France, Allemagne, Suisse, etc.)
  • rupture anormale de pente dans une courbe (break signal)
  • sur les 120 séries de départ 97 ont dû être homogénéisées (81% du total)
  • l'ajustement s'avère être de 0,5K sur 150 ans en moyenne
Imaginons un instant que ces ajustements, qui devaient porter essentiellement sur les premières données qui constituaient un patchwork difficilement exploitable, n'avaient pas été effectués, qu'aurait-on dit de la pertinence de l'étude Böhm 2001 ? A mon humble avis l'étude aurait été rejetée, à juste raison, par des réviseurs consciencieux, mais peut-être pas par phi s'il avait été dans le circuit de révision.

Mais ce qui est succulent c'est quand l'étude Böhm 2001  explique le processus qui consiste à bâtir des anomalies de températures, chose dont phi n'a toujours pas compris l'utilité :
The first step in analysing the data was the transformation of the 97 homogenized series into anomaly series. Anomalies were calculated on a monthly basis, subtracting the monthly mean for the 1901–1988 period (hereafter referred to as the 20th century mean). A correlation analysis was then performed. The results show that the monthly temperature anomalies have a high spatial correlation over the ALPCLIM region and that the difference in height affects the correlation more than the horizontal distance.
Ainsi on apprend que la corrélation spatiale des anomalies est plutôt bonne, mais meilleure en distance horizontale qu'en distance verticale (i.e. en altitude) ; eh oui, les anomalies permettent de comparer des choses comparables, la température absolue étant évidemment fortement fonction de l'altitude notamment !


L'ajustement de 0,4°C


Une belle image :
http://berkeleyearth.org/wp-content/uploads/2015/04/Figure1.png
Ah ouaip. Très belle image. Sauf que NCDC c'est la base GHCN et et que je vous rappelle qu'en global il y a ajustement de 0.4 °C entre QCU et QCA sur le XXème siècle. Cette image est une belle entourloupe parce qu'elle ne comptabilise qu'une petite partie des ajustements effectifs. Si vous doutez, vous pouvez reproduire vous même le graphique que j'ai mis en lien."
L'image en question la voici :
Figure 1. Global (left) and CONUS (right) homogenized and raw data from NCDC and Berkeley Earth. Series are aligned relative to 1990-2013 means. NCDC data is from GHCN v3.2 and USHCN v2.5 respectively. (source berkeleyearth)

On y voit un ajustement (indispensable, je le rappelle !) de quelques 0,2°C au maximum sur le global et sur la période 19ème siècle-années 1940, par la suite les données brutes sont suffisamment fiables pour être très peu ajustées ; par contre aux USA les ajustements significatifs vont jusque dans les années 1960-1970...ce qui est peut-être seulement la preuve qu'aux USA les données brutes sont à prendre avec des pincettes encore plus qu'au global…

Mais quel est donc le graphique que phi aurait mis en lien, il ne reprend pas ce lien, ce qui est pénible car il faut remonter le fil des commentaires pour le retrouver ; s'agit-il de celui-ci ?

Evaluation des ajustements GHCN par rapport à 1901 (source inconnue)
Ou de celui-là ?

Températures continentales de l'hémisphère nord, de mai à octobre (source inconnue)
Comme nous ne connaissons la source ni de l'un ni de l'autre j'aurais tendance à dire « poubelle » mais essayons de regarder un peu tout de même.

Le premier montre les ajustements par rapport à 1901 ; ce qui me choque dans ce graphique c'est qu'on a l'impression que les plus gros ajustements ont été effectués récemment et qu'ils auraient été insignifiants avant les année 1960 ; on voit la valeur de 0,4°C mentionnée par phi, mais ce graphique s'avérant plus que douteux en l'absence de référence correcte on se permettra d'être très « sceptique » sur la réalité de ces 0,4°C.

Quant au deuxième graphique j'ai déjà exprimé mon opinion que je réitère ici : un écart en 2018-2019 de près de 1°C entre ce qui est qualifié de « courbe officielle du GIEC » et les données UAH me fait penser à une source climatosceptique du genre que l'on peut rencontre sur des sites comme Climate Audit ou Watts Up With That, je n'en dirai pas plus.

Victor Venema entre dans la danse


France :
"J’en ai des téraoctets."
Alors c'est parfait. Vous allez pouvoir vérifier les bases brutes GHCN et BEST. Et si vous êtes capable de démontrer quelque chose, vous expliquerez ensuite à Victor Venema qu'il ne sait pas de quoi il parle : "almost all data collected by NOAA to produce GHCN is not homogenized in advance. France is an exception."
(http://www.skyfall.fr/2015/12/06/fil-info-de-sceptiques-20154/comment-page-16/#comment-148216)
Quand un climatosceptique se sent acculé le mieux qu'il trouve à faire c'est de citer des scientifiques qualifiés par eux de « réchauffistes » ou « carbocentristes » (mots qui ne veulent strictement rien dire mais qui sont supposés s'opposer aux termes de climatosceptiques ou climatonégateurs) et en l'occurrence c'est Victor Venema qui est appelé à la rescousse comme auparavant ce fut James Hansen.

Ce qu'écrit Venema dans un commentaire sur Skyfall est très probablement proche du 100% correct (notons qu'il a fait un effort méritable d'intervenir sur un site climatosceptique) et la citation de phi est juste :
[…] almost all data collected by NOAA to produce GHCN is not homogenized in advance. France is an exception.
Ce qui signifie seulement que la France fournit à la NOAA des données préajustées alors qu'une majorité de pays envoient des données brutes qui sont homogénéisées par la NOAA si je comprends bien.

Bref la France mâche le travail à la NOAA, et elle ne doit pas être le seul pays à le faire, puisque « la majorité » veut dire qu'une « minorité » de pays font comme le fait la France ; on peut imaginer que cette minorité de pays est capable d'homogénéiser les données avec suffisamment de précision et de niveau de confiance au point que la NOAA accepte les données homogénéisées sans contester leur légitimité.

Conclusion


Beaucoup d'interrogations subsistent, surtout chez moi, et ce ne sont pas les « explications » de phi qui vont permettre d'y apporter des réponses que je puisse juger comme acceptables.

Tant que phi se contentera d'affirmer sans prouver quoi que ce soit, de montrer des graphiques sortis de son chapeau, de faire dire aux autres (surtout aux climatologues) quasiment le contraire de ce qu'ils pensent ou écrivent, alors on n'avancera pas d'un iota.


Concernant les ajustement de températures on se réfèrera à l'article Homogenization of Temperature Data: An Assessment dans lequel Victor Venema est justement intervenu dans les commentaires ; l'article a été écrit par nul autre de Kevin Cowtan, un professeur de chimie que phi embauchera probablement dans une de ses explications à venir, n'en doutons pas !

Cowtan est l'auteur d'un rapport récent (il date de 2015) dans lequel on peut voir ce graphique :

Figure 2.2: The impact of homogenization of land data alone and of both land and ocean data. Land temperature data from GHCN, sea surface temperatures from HadSST3 (Kennedy, Rayner, Smith, Parker, & Saunby, 2011).


On y voit des ajustements essentiellement dans le passé, bien avant les années 1950 pour l'essentiel, avec une amplitude d'environ 0,2°C seulement.

Ce rapport est très technique, je ne me permettrais pas de le commenter et encore moins de le critiquer, mais soyons persuadés que certains s'y emploieront.



11 commentaires:

  1. Géd,
    En premier lieu, je me dois de vous remercier chaudement. Vous complétez mes messages avec un bon travail bibliographique. J'avoue n'être pas très performant sur ce terrain, je joue l'économie et suis un peu trop laconique.

    Je me contenterai de reprendre brièvement quelques points.

    USA
    En l'occurrence, suite à une affirmation erronée de Sgag, je me suis contenté de dire que les US ne se distinguaient que par le traitement un peu particulier réservé aux données USHCN mais qu'en elles-mêmes, ces données ne n'avaient rien de très particulier et que les séries européennes donnaient lieu à des ajustements du même ordre de grandeur.

    La chose est donc maintenant dûment exposée.

    Je ne répéterai pas pourquoi les conclusions tirées par les auteurs sont fausses. Cela, je l'ai déjà très clairement exposé avec référence. Et ce n'est pas si compliqué à comprendre, on est quand même pas dans la relativité générale.

    Quantification des ajustements GHCN
    Toutes les données sont disponibles sur le site GHCN, il y a un petit travail de programmation à faire pour l'extraction des valeurs mais, par exemple, Sgag qui manie des teraoctets de séries françaises devrait y parvenir facilement.

    France
    Pas grand chose à ajouter. Je ne suis guère allé plus loin ici que ce qu'affirme Venema. Je dirai juste qu'il semblerait que les données brutes puissent être obtenue après signature d'une clause de confidentialité.

    phi

    RépondreSupprimer
    Réponses
    1. Bon, pas grand chose de bien concluant, je note que pour la France il y aurait une « clause de confidentialité » qui expliquerait donc que les données brutes ne soient pas accessibles au commun des mortel, ce qui ne me semble pas anormal à première vue, même si la transparence devrait être la norme, mais nous ne sommes pas au fait de toutes les subtilités légales qui peuvent éventuellement exister ; de là à conclure que les données de Météo France seraient trafiquées je vois que vous ne semblez pas aller jusque là, ce qui est un point positif en votre faveur.

      Pour le reste je n'ai pas d'avis mais vous comprendrez que je demeure sur la réserve quant à vos explications ; le point important est que les données brutes nécessitent des ajustements pour des raisons parfaitement valables et que ces ajustements sont au maximum de l'ordre de 0,2°C d'après le rapport de Kevin Cowtan, pour le moment je m'en tiens à ça.

      Supprimer
  2. Ged,
    Un papier très intéressant (que Phi devrait lire aussi):
    https://journals.ametsoc.org/doi/pdf/10.1175/JCLI-D-18-0094.1

    En particulier les figures 4 et 7

    Sgag

    RépondreSupprimer
    Réponses
    1. Merci Sgag, il me semble que ce papier est effectivement au cœur de notre problème d'ajustements de températures, je vais le regarder un peu plus attentivement dès que j'aurai un peu de temps devant moi (pour l'instant j'ai d'autres priorités)

      Supprimer
  3. Franchement je ne comprend pas cet acharnement á discuter des homogeneisation/ajustements en particulier pour les temperatures prises au sol. Ce traitement des données est indispensable. C'est d 'autre part un boulot purement mathématique/ traitement du signal qui a peu á voir avec la "science"du climat.
    Bien sur, les données brutes sont "sales" et on y trouve encore des aberrations ( comme ce qu'a trouvé cet australien dans sa thése ....) mais globalement c'est noyé dans le "bruit" du signal. Il est vrai , et je parle d'experience, que les scientifiques travaillent comme des cochons en général quand il s'agit de faire ce type de boulot roboratif ( traitement de données , nettoyage de bases de données , developement d'outils informatiques --> il faut voir la qualité de leur code !!! My God ) ... En gros, c'est pas du boulot excitant et c'est plutot une corvée que l'on donne á des stagiaires ou des thesards ... Pas étonnant que l'on y trouve des conneries ... mais c'est , je pense , négligeable ...

    Ce qui est moins négligeable et beaucoup plus problématique, c'est la différence entre RSS et UAH á partir du meme set de données .
    Rappelons que UAH est un labo d'université publique mené par deux des pionniers de la NASA dans la mesures de temperature par satellites ( medailles d'or de la NASA tous les deux ) et de l'autre coté on a une entreprise privée (financé par qui ?) ...
    La différence entre les deux tendances est anormale . Et le fait que RSS est subitement recalé une tendance de + 30 % est hautement suspicieux quand á la pertinence de ce recalage ( rappelez vous les + 60% de Resplandy ... quand on obtient des corrections de cette ampleur , il y a d'habitude un loup ... ) : soit ils se trompent , soit ils admettent qu'ils produisaient de la merde auparavant ... c'est trop gros . D'autre part la raison de ce recalage ( "l'orbit decay") ne me semble pas justifier un tel "jump" ... Car si reellement ils sont aussi sensibles á une trés lente dégradation d'orbite , autant dire que l'ensemble des données est á mettre á la poubelle ... D'ailleurs , ca rue dans le petit monde du spatial á ce sujet. A noter que UAH a également procédé á un recalage pour tenir compte de cette dégradation d'orbite et obtient des modif. marginales ... et si on considére le background professionnel des deux équipes, ma confiance va á Christy / Spencer

    BenHague

    RépondreSupprimer
  4. Merci Sgag.

    L'explication se trouve page 3 :

    "If the overlapping data appear to be two distinct station records, based on lower values of the index of agreement, the source station is added as a new station to the master set despite the metadata similarity. Likewise, if no stations in the master set are sufficiently similar based on data or metadata, the source station is considered to be new to the master set, and its data are added to the master database under a new station identifier."

    Et voilà comment on glisse sous le tapis la majorité des ajustements.

    Bravo Menne et consorts !

    phi

    RépondreSupprimer
  5. BenHague,

    "Ce traitement des données est indispensable."

    Un traitement adapté est souhaitable pour obtenir des résultats utilisables en climatologie. C'est vrai. Mais ce n'est pas pour ça que n'importe quelle manipulation est justifiée.

    "C'est d 'autre part un boulot purement mathématique/ traitement du signal qui a peu á voir avec la "science"du climat."

    Non. C'est une erreur courante et à la mode de croire que les maths et l'informatique suffisent seules à résoudre un problème. C'est typique dans le cas particulier. Les responsables des stations étaient parvenus à maintenir des séries de températures plus ou moins acceptables. Leurs efforts ont été réduits à néant par des bricoleurs comme Menne et Muller (c'est plutôt cocasse parce que ces distingués scientifiques ne font pratiquement que supprimer des correctifs nécessaires mais insuffisants opérés par les gens de terrain).

    "mais globalement c'est noyé dans le "bruit" du signal."
    Non, c'est de l'ordre de grandeur du signal.

    "mais c'est , je pense , négligeable ..."

    Vous pensez. C'est insuffisant de juste penser.

    Vous êtes plus pertinent quand vous nous parlez des données satellites, vous êtes aussi plus proche de votre domaine de compétence.

    Essayez de travailler un peu vos préjugés.

    phi





    RépondreSupprimer
  6. Sans doute ,

    Mais vous avez ici deux jeux de données indépendants ( mesures satellite et mesures terrestres) qui donnent le meme ordre de grandeur sur la trend (+0.15 degC/dec pour faire simple).
    Il est vrai qu'il y a ce probléme entre UAH et RSS depuis la derniére mise á jour de RSS (+36% sur la trend d'un coup) . Avant ils etaient en ligne et cohérents.
    De toute maniere, je trouve tres sain d'avoir deux equipes independantes et compétentes ( car Mears & co sont trés compétents aussi) travaillant sur le meme jeu de données .

    Donc en résumé , les temperatures terrrestres homogénéisées donnent une trend , les mesures sat' donnent une trend a peu prés équivalente ... Les deux jeux de mesures sont totalement indépendants ...
    Donc je ne vois pas ce que vous cherchez á gratter de ce coté lá ...
    Il est vrai que je ne suis pas allé en détails voir ce qu'ils font sur les données terrestres.

    BenHague

    RépondreSupprimer
  7. BenHague,

    "Donc en résumé , les temperatures terrestres homogénéisées donnent une trend , les mesures sat' donnent une trend a peu prés équivalente"

    Vous mettez le doigt sur une partie non négligeable de la solution. Les tendances sont effectivement à peu près équivalentes. Elles ne devraient pas. Globalement, les TLT UAH et RSS amplifient les variations inter-annuelles ou décennales d'un facteur environ 1.8. Les tendances devraient montrer la même différence. Le phénomène lié à l'évolution du taux d'humidité absolue est parfaitement compris.

    Il y a donc divergence des comportements à basse fréquence. La valeur de cette divergence est à peu près identique à celle qui apparaît entre T2M et proxies. Voir le graphique ci-dessus.

    Nous sommes donc très très loin d'une question négligeable. Et comme tout cela forge notre perception du caractère exceptionnel du réchauffement récent (voir les courbes en crosses), nous sommes en réalité au coeur de l'affaire RCA, côté observations.

    phi



    RépondreSupprimer
  8. @ Sgag, phi et BenHague

    Je vous remercie d'entretenir un échange courtois qui peut éventuellement faire avancer les choses, les points que vous soulevez tous les trois méritant d'être examinés.

    Je serais curieux de savoir ce que d'autres comme VB ou Robert (ou FM Bréon s'il passe par là éventuellement) pensent du sujet.

    Pour ma part tout ce que je peux dire c'est que je me souviens avoir lu quelque part (mais où ?) que les satellites avaient au départ été lancés pour tout autre chose que la mesure des températures de l'atmosphère et que c'est après coup que des chercheurs (peut-être Christy et Spencer ?) auraient imaginé se servir des données qu'ils fournissent pour en inférer (après de savants calculs…) les températures à divers niveaux de l'atmosphère ; il est notoire que les mesures depuis les satellites sont travaillées « au sol », à partir notamment de modèles et certainement d'équations très complexes, ce qui donne des résultats très critiquables quant à leur fiabilité (que ce soit UAH ou RSS, le but étant de savoir qui est le moins faux…)

    Qu'en pensez-vous ?

    RépondreSupprimer
  9. J'ai retrouvé une information qui est peut-être la source de ce que ma mémoire avait retenu concernant les satellites qui n'étaient pas au début prévus pour mesurer des températures : https://skepticalscience.com/Primer-Tropospheric-temperature-measurement-Satellite.html

    Extrait : « These satellites are designed principally as Weather Satellites; their use in Climatology is a secondary role. » ; ce qui expliquerait leurs nombreuses déficiences pour mesurer les températures (l'article en fait une revue assez significative)

    Quant à savoir qui de RSS ou de UAH est le plus « performant » il y a ce passage :

    « Which of the techniques of UAH or RSS are correct? Both have weaknesses – UAH use comparisons between different view angles from one scan in two different parts of their analysis, magnifying the sensitivity to errors. RSS use a short term climate model rather than just data. Commentators seem to prefer the RSS analysis. »

    Et pour répondre à BenHague qui semble préférer UAH parce qu'il s'agirait d'un organisme public alors que RSS est privé, c'est quand même assez comique étant donné qu'à ma connaissance l'immense majorité des scientifiques dont les travaux sont repris par le GIEC travaillent...dans le public ! De toute façon, ce n'est pas le fait qu'un organisme soit public ou privé qui devrait nous faire douter de ses compétences, mais uniquement si ses travaux sont largement repris et acceptés par la communauté scientifique (à moins de considérer que cette communauté se plante, ce qui est possible mais fort improbable et demande à être démontré)

    RépondreSupprimer