bonjour
j'aimerais faire un petit point sur le problème épineux et contesté dit de la "crosse de hockey" (courbe de Mann) , qui soulève beaucoup de débats apparemment. La méthodologie a été critiqué par certains auteurs, notamment MacIntyre. J'avoue ne pas avoir suivi tous les détails de la polémique , simplement en regardant le problème je pense avoir compris la critique de Mc intyre et je voudrais surtout savoir
a) si ma compréhension du probleme est bonne
b) si des contre arguments valables ont été présentés.
Je résume donc ce que j'en ai compris , pour but éventuel de rectification.
Le probleme est que nous n'avons de courbes de températures précises que depuis un siecle environ. Elle montre une hausse de température, mais ne prouve pas de façon définitive que cette hausse n'a pas existé pour d'autres causes que le CO2 dans le passé, ou même ne permet pas facilement de soustraire une eventuelle composante naturelle , qui diminuerait d'autant l'influence du CO2 anthropique.
Il est donc important, et personne ne le conteste, de comparer la courbe actuelle des températures à celle des siècles passés. Comme on n'a pas de mesure fiable, on va les remplacer par des indicateurs indirects ou "proxys", calibrés sur la période actuelle, et extrapolés dans le passé. Ces proxys sont imparfaits, mais si on en prend une moyenne, on devrait faire apparaitre une tendance significative des siècles passés.
Cette méthodologie a été employée par Mann dans son article de Nature, et reprise récemment par exemple par Kaufman pour montrer un réchauffement récent de l'Arctique interrompant brutalement des millénaires de refroidissement (voir par exemple ici avec la courbe
http://news.bbc.co.uk/2/hi/science/nature/8236797.stm
bien, tout ça ne parait pas déraisonnable a première vue, mais voyons la critique de McIntyre , ou du moins ce que j'en ai compris.
Pour l'illustrer, imaginons l'expérience préliminaire suivante
Expérience préliminaire
vous disposez d'une courbe propre de températures sur 100 ans, mais pas avant, qui montre une montée.
Vous faites un TIRAGE ALEATOIRE d'une variable aléatoire quelconque bruitée, en générant par exemple 100 courbes aléatoires différentes, mettons sur 1000 ans.
Sur chacune des courbes, vous calculez la corrélation sur les 100 dernières années avec la température, et vous ne sélectionnez que les courbes ayant la corrélation la plus forte avec cette courbe.
Evidemment les courbes étant aléatoires , y en a qui montent sur 100 ans (corrélation positive), d'autres qui descendent (corrélation négatives) , ou d'autre à peu près plates (corrélation nulle). Vous ne gardez que les deux premières, en inversant le signal des secondes pour avoir une corrélation positive (la quantité étant considérée comme "anticorrélée" au départ).
vous avez donc construit un sous-echantillon de courbes générées aléatoirement mais statistiquement bien corrélées à la température. Il est facile pour chacune de calculer un coefficient de proportionnalité linéaire ajustant exactement la montée ou la descente avec celle de la température, pour "normaliser" la correspondance entre les deux.
A partir de ce sous-échantillon corrélé, vous calculez la moyenne sur 1000 ans. Qu'obtenez vous ?
sur les 100 dernières années, la courbe est parfaitement corrélée par force avec la courbe moderne des température, ce qui "valide" le proxy.
Mais bien sur, comme la corrélation était fortuite sur les 100 dernieres années, vous obtenez n'importe quoi dans les 900 précédentes, et donc, en moyennant, une courbe à peu près plate. A peu près, puisqu'il n'y a pas de raisons que la courbe moyenne monte ou descende statistiquement sur 1000 ans, le fait de sélectionner les courbes qui montent sur les 100 dernieres années introduit un biais négatif sur les 900 premières, dominées par le fait que les courbes qui montent en moyenne sont celles qui étaient un peu plus basse par hasard en 1900.
A l'aide de cette opération mathématique ALEATOIRE, vous construisez donc une courbe
* a peu près plate mais avec une tendance négative, surtout sur la fin.
* brusquement corrélée avec une montée nette sur les 100 dernières années "ajustées" sur la courbe réelle.
bref... une parfaite crosse de hockey , et cela bien évidemment quel que soit la courbe réelle de température passée, vu qu'on n'en a absolument jamais tenu compte nulle part. C'est le biais de sélection de proxy par le caractère corrélé à la température connu des 100 dernières années qui introduit "naturellement" cette forme.
comparons avec la méthodologie réelle
Expérience réelle
on cherche des signaux naturels qui soient corrélés avec la température (cernes d'arbre, date des vendanges, etc...)
Comment s'assure-t-on de cette corrélation et comment normalise-t-on ces signaux ? ben... exactement comme ci-dessus. On regarde plein d'indicateurs , et on cherche ceux qui paraissent corrélés aux températures modernes en écartant ceux qui ne sont pas corrélés. Et après, en gros, on fait exactement pareil.
Et donc on trouve la même chose et on trouverait aussi la même chose si les courbes n'étaient que aléatoires !!!
Ca ne veut pas dire que les proxys sont forcément mauvais !! ça veut dire que MEME SI ILS ETAIENT MAUVAIS, on trouverait quand meme une crosse de hockey, donc que la forme est génériquement engendrée par la méthode de sélection des proxys.
augmenter le nombre de proxys et faire des moyennes ne change bien sur en rien le biais statistique, il tend seulement à le faire tendre vers une courbe de plus en plus plate dans le passé par la loi des grands nombres, et donc d'augmenter artificiellement la "significativité" de la montée récente (encore une fois le même résultat est obtenu génériquement avec tout ensemble de courbes aléatoirement générées et sélectionnées par la corrélation récente).
Questions donc
a) ai-je bien compris l'objection de McIntyre ?
b) y a-t-il une erreur dans le raisonnement, si oui , laquelle?
c) si non quelle réponse y a-t-il eu pour corriger de ce biais? comment peut-on l'estimer ? en tient-on vraiment compte ?
-----