ah ben non je ne comprends rien de tel.est ce que tu te rends bien compte Meteor que ce que tu dis confirme que la calibration dans la période pré-1960 renverse bien la courbe par rapport à la normale
, puisque dans la période de calibration l'évolution avec T est à l'envers de ce que tu dis (minérales augmentent donc organiques diminuent, mais à cause des pollutions humaines), et donc que Mann, dans son tout dernier article d'il y a seulement quelques jours, A BIEN GARDE LE MAUVAIS SIGNE ?
Moi je vois que la période récente de températures élevées correspond à des matières organiques élevées ( il n'y a pas de preuve que ce soit du à l'activité humaine) donc il n'y a pas de changement de sens.
j'ai dit le contraire?mais non, ça n'est pas si simple. Un proxy n'est représentatif qu'au mieux des conditions locales (très locales pour un arbre, un peu moins pour les sédiments au fond d'un lac).
Il faut aussi comprendre que les proxys sont des séries limitées dans le temps (la vie d'un arbre par exemple).
Il n'y a qu'une approche multivariée qui permet de traiter des 2000 dernières années sur l'hémisphère nord.
je n'ai parlé nulle part d'hémisphère nord...
A moins qu'il y ait quelque chose qui ne marche pas dans la figure que j'ai citée.
Lorsque les auteurs disent que le DS représente la "Dark Sum", soit le contenu en matières organiques et qu'on la voit, apparemment, augmenter on peut se dire que les MO augmentent.
Cependant l'échelle est en "grey value".
Or si la "grey value" augmente c'est qu'il y a plus de matières minérales.
C'est quand même pas très bien formulé tout ça.
Je me demande si ce n'est pas ça qui a trompé Mann.
Oui bon je soliloque mais peut-être que j'avance un peu.A moins qu'il y ait quelque chose qui ne marche pas dans la figure que j'ai citée.
Lorsque les auteurs disent que le DS représente la "Dark Sum", soit le contenu en matières organiques et qu'on la voit, apparemment, augmenter on peut se dire que les MO augmentent.
Cependant l'échelle est en "grey value".
Or si la "grey value" augmente c'est qu'il y a plus de matières minérales.
C'est quand même pas très bien formulé tout ça.
Je me demande si ce n'est pas ça qui a trompé Mann.
Si je regarde maintenant la figure 5 de Tijlander 2003, je vois que la perte au feu des échantillons récents (LOI) est plutôt faible.
Ce qui me confirme que j'avais tort dans mon interprétation de la figure 9, graphe du bas.
et, qu'accessoirement, Mann s'est bel et bien planté...
oui mais j'ai oublié l'autre moitié de l'argument: c'est que les séries de température commençant en 1850 ne se trouvent pas partout, en tout cas pas nécessairement au pied de l'arbre en question.
Je vois les choses comme ça: d'un côté tu as un ensemble de séries de mesures de température, hétérogène en qualité, en durée, avec des trous, etc. et de l'autre un ensembles de séries de proxys, encore plus hétérogène, pas situées au mêmes lieux que les précédentes.
Il n'y a pas moyen de faire autrement que de traiter en bloc un territoire relativement étendu. Peut-être que c'est faisable au niveau d'un payc comme la France, je ne sais pas. Les articles publiés concernent soit l'hémisphère nord, soit l'Europe ou l'Amérique du Nord.
ben ce n'est pas ce que disent les posts de McIntyre ou de Jean S, en tout cas. Ils disent que la corrélation a été effectuée sur une période où la variation était en sens inverse, et l'analyse des séries prouve , si on en croit ces auteurs, qu'elle a bel et bien été prise dans l'autre sens. Ils ne donnent pas la figure 3 que tu donnes mais d'autres figures.
A remarquer que dans ta figure tout augmente à la folie au XXe siecle y compris la quantité de matières minérales, et très largement plus que la température, donc ce n'est manifestement pas la température qui fait augmenter le proxy ! dans tous les cas, la normalisation est foireuse, parce qu'elle va sous estimer le rapport T/proxy, et c'est inutilisable pour une calibration, si l'évolution du proxy n'est pas due à la température.
Si l'on en croit ce blog (qui cite directement les papiers de Mann 2008 et sa critique par McIntyre), le retrait du proxy Tijlander ne change quasiment rien à la courbe (voir la figure 8 reproduite = analyse minus ce proxy).
Si le lac finlandais est conservé, c'est parce qu'il apporte des informations sur le premier millénaire. Bon, cela n'excuse en rien l'erreur si erreur il y a de la part de Mann et al, mais disons qu'elle ne semble pas peser lourd sur l'allure générale de la courbe. J'en reviens toujours à la même question, celle de savoir la robustesse de corrélation des proxies avec les T en période instrumentale. Il est certainement utile de relever que certains proxies sont divergents ou douteux, mais s'ils représentent 0,5% du réseau utilisé, je vois mal que cela suffise à jeter ces travaux au panier en disant que toute la période moderne est contaminée par des variations systématiquement aléatoires de tous les proxies (et donc toute la période prémoderne nécessairement aplatie). or, pour l'instant, personne ne m'a indiqué l'endroit où McIntyre fait le point sur les séries de Mann – je suppose qu'il n'a pas manqué d'analyser cela à la loupe !
Si j'en reviens au récent Mann 2009 dans Science, je trouve assez intéressante la résurrection du petit âge de glace. D'une part parce que sur la période récente (quatre derniers siècles), on a des proxies plus divers et moins sensibles à de multiples influences que les arbres en surface. D'autre part parce que le gain d'environ 0,5-0,7°C entre les années 1800-1820 et les années 1910-1930, avant une influence anthropique massive en terme d'effet de serre, indique une variabilité naturelle (ou forcée par un couple hausse solaire / baisse volcanique) non négligeable. Laquelle, cependant, n'indique rien sur la réponse climatique au forçage anthropique, puisqu'une réponse soutenue du climat à ses oscillations internes ou à l'irradiance solaire n'est pas du tout exclusive d'une réponse tout aussi soutenue à un forçage anthropique. Au contraire, serai-je tenté de dire. Par exemple, si le climat réagit assez nettement à +1 W/m2 de forçage solaire, il y a tout lieu de penser qu'il réagira aussi nettement à +1W/m2 de forçage des GES. Sauf si les rétroactions diffèrent, donc la sensibilité spécifique à chacun des forçages... mais cela reste à démontrer, non?
J'aurais donc tendance faire une hypothèse à rebours du débat actuel (la variabilité prémoderne comme argument plutôt "sceptique") : plus le climat a varié ces derniers siècles, plus il a de chance d'être sensible à de faibles influences... et donc de varier au XXIe siècle. Suis-je complètement dans l'erreur sur ce point ?
Pas le temps de répondre complètement (suffit de regarder l'heure du message pour comprendre pourquoi), mais sur ton premier point: ça montre quand même un gros problème dans l'utilisation des proxys.
Et je te renvoie vers le message initial de gillesh: grosso modo si le critère pour choisir un proxy c'est juste un truc qui monte (ou qui descend et on prend -1) vers 1900, alors il y a toutes les chances que la moyenne de la partie pré-1850 de ces courbes soit globalement plate => hockey stick.
curieux critère de validité !! personne n'a dit qu'il y a QUE Tijlander qui est faux et qui pose problème, mais la question posée est celle de la validation de la méthode en générale , voir plus bas.Si l'on en croit ce blog (qui cite directement les papiers de Mann 2008 et sa critique par McIntyre), le retrait du proxy Tijlander ne change quasiment rien à la courbe (voir la figure 8 reproduite = analyse minus ce proxy).
es-tu conscient que cette "résurrection" est exactement la preuve que la méthode n'est pas robuste, puisque la MEME méthode est capable de l'effacer, en conservant la courbe moderne des températures? es-tu conscient que ça PROUVE que la méthode est capable de donner n'importe quoi, sans possibilité de validation?J'en reviens toujours à la même question, celle de savoir la robustesse de corrélation des proxies avec les T en période instrumentale. Il est certainement utile de relever que certains proxies sont divergents ou douteux, mais s'ils représentent 0,5% du réseau utilisé, je vois mal que cela suffise à jeter ces travaux au panier en disant que toute la période moderne est contaminée par des variations systématiquement aléatoires de tous les proxies (et donc toute la période prémoderne nécessairement aplatie). or, pour l'instant, personne ne m'a indiqué l'endroit où McIntyre fait le point sur les séries de Mann – je suppose qu'il n'a pas manqué d'analyser cela à la loupe !
Si j'en reviens au récent Mann 2009 dans Science, je trouve assez intéressante la résurrection du petit âge de glace.
un type prétend te fabriquer une balance, tu te pèses avec, tu trouves 53 kg, alors que tu sais que tu en pèses 75, tu lui ramènes, il te dit "ah oui excusez j'ai fait une erreur de fabrication ", il repart dans son atelier et la rebricole avec les memes outils et de la même façon, tu te repèses et tu trouves 69 kg. Tu le crois les yeux fermés? surtout quand tu découvres qu'il a remis une des pièces à l'envers !!!!
tu ne vois pas que l'argument ne repose QUE sur la précision de reconstruction des températures passées, donc la PRECISION avec laquelle on évalue l'amplitude des fluctuations, donc la PRECISION du rapport de calibration T/proxy , puisqu'on ne fait que comparer une amplitude mesurée instrumentale à une amplitude reconstruite, numériquement ???
J'aurais donc tendance faire une hypothèse à rebours du débat actuel (la variabilité prémoderne comme argument plutôt "sceptique") : plus le climat a varié ces derniers siècles, plus il a de chance d'être sensible à de faibles influences... et donc de varier au XXIe siècle. Suis-je complètement dans l'erreur sur ce point ?
si les anomalies reconstruites ne sont que 50 % plus grandes IL n'Y A PLUS RIEN DE SIGNIFICATIF.
qu'est ce qui te permet de penser que cette reconstruction est précise vu les remarques ci-dessus que
a)- la méthode a prouvé qu'elle était capable tout autant d'effacer un signal que de le montrer, au choix
b) les différentes reconstructions sont largement différentes
c) il n'y a aucun moyen objectif de valider le coefficient de reconstruction passé, puisque la seule comparaison possible est avec les températures présentes qui sont les mêmes qui calibrent le signal
n'importe quel physicien sérieux ne considérera jamais ça comme une mesure PRECISE - et tout le discours qui l'accompagne est totalement dépendant de cette précision.
Il faudrait aussi lire les posts qui ont suivi, tant qu'à faire.ben ce n'est pas ce que disent les posts de McIntyre ou de Jean S, en tout cas. Ils disent que la corrélation a été effectuée sur une période où la variation était en sens inverse, et l'analyse des séries prouve , si on en croit ces auteurs, qu'elle a bel et bien été prise dans l'autre sens. Ils ne donnent pas la figure 3 que tu donnes mais d'autres figures.
A remarquer que dans ta figure tout augmente à la folie au XXe siecle y compris la quantité de matières minérales, et très largement plus que la température, donc ce n'est manifestement pas la température qui fait augmenter le proxy ! dans tous les cas, la normalisation est foireuse, parce qu'elle va sous estimer le rapport T/proxy, et c'est inutilisable pour une calibration, si l'évolution du proxy n'est pas due à la température.
Posts où je signale qu'il y a un pb dans la figure citée.
Je ne dis pas que c'est un critère de validité, j'observe simplement le peu d'effet d'un proxy isolé sur la courbe et m'interroge sur les autres. Si j'ai 1000 thermomètres et que l'on démontre que deux sont cassés, je suppose que la température moyenne mesurée ne va pas en être très affectée. Cela ne démontre pas que tous mes relevés de température sont faux.
Mann et son équipe, du moins ses co-auteurs habituels, ont dû publier une bonne dizaine de reconstructions entre 1998 et 2009. Comme il y a eu beaucoup de critiques sur la paléoclimatologie et la dendrochronologie (McIntyre et McKittrick, mais aussi d'autres), je suppose qu'ils ont fait évoluer et leur base de proxies et les techniques statistiques. Je fais peut-être une confiance absurde et surrannée dans le peer-review, mais je vois mal le comité de lecture de Nature ou Science ne pas se pencher sur la question vu l'ampleur qu'a pris la polémique sur la hockey stick depuis 10 ans.es-tu conscient que cette "résurrection" est exactement la preuve que la méthode n'est pas robuste, puisque la MEME méthode est capable de l'effacer, en conservant la courbe moderne des températures? es-tu conscient que ça PROUVE que la méthode est capable de donner n'importe quoi, sans possibilité de validation?
Tu vas me dire, avec moult capitales et points d'exclamation inutiles à un dialogue paisible , que c'est de la croyance pure. C'est plus simplement que je ne parviens pas à me faire une idée personnelle étant donné la complexité des calculs statistiques rapportés à un millier de proxies. Je considère volontiers que la commission Wegman ou le NRC ont mobilisé des experts en statistiques avant de formuler leurs critiques, donc j'ai tendance à valider ces critiques ou réserves qui se retrouvent d'ailleurs dans l'AR4. Mais en même temps, je n'ai pas lu dans ces travaux spécialement dédiés à la dissection des recherches de Mann que tous les proxies étaient nazes. Au contraire, on souligne que certains sont mauvais (bristelcone pine dans Mann 98 par exemple) ET que l'analyse en composante principale (au moins la PC1) leur accordait alors trop de poids dans la reconstruction. Je pense que Mann et al ont voulu parer à ce genre de critiques en montrant que le retrait de tel ou tel proxy "douteux" n'apporte pas une variation significative à leur ACP.
Gilles, ce n'est évidemment pas le même cas de figure ! Enfin tel que je vois les choses, c'est plutôt un type qui me propose 1000 balances et il y a son concurrent qui me dit "ouh lala, cette balance-là, la 727e, elle marche pas" et toi tu veux que je mette à la poubelle les 1000 balances ! S'il y en a 1 ou 10 qui sont déréglées, mais si je fais la moyenne des poids indiqués, je vais effectivement trouver un poids pas très éloigné de mes 75 kg. Tant que l'on ne m'aura pas indiqué un papier où les fameux proxies sont critiqués un par un pour leurs variations totalement aléaoires (donc, le caractère absurde d'en sélectionner quelques-us qui "collent" aux mesures instrumentales), eh bien je resterai un peu sceptique. Comme j'ai demandé déjà plusieurs fois, et que personne ne m'a dit "bien sûr, voici le papier où McIntyre et ses collègues montrent que plus de la moitié des proxies utilisés en dendro ont des réponses chaotiques", je suppose qu'un tel papier n'existe pas, et que l'on prend des pages et des pages à disséquer un proxy (ici, le lac finlandais) sans aucune vision d'ensemble.un type prétend te fabriquer une balance, tu te pèses avec, tu trouves 53 kg, alors que tu sais que tu en pèses 75, tu lui ramènes, il te dit "ah oui excusez j'ai fait une erreur de fabrication ", il repart dans son atelier et la rebricole avec les memes outils et de la même façon, tu te repèses et tu trouves 69 kg. Tu le crois les yeux fermés? surtout quand tu découvres qu'il a remis une des pièces à l'envers !!!!
Précision : je ne suis pas très chaud partisan d'une attribution "quasi-certaine" (ou très probable) de tout le réchauffement 1950-2009 à l'homme, parce que je ne pense pas que ces "likely" et autres sont assez robustes vu la faiblesse du signal et les incertitudes persistentes de modèle ou de mesure que le GIEC lui-même relève dans son rapport complet. Ce sont des concessions lexicales à une attente d'opinion publique pas très pertinente pour la science, qui n'est pas très à l'aise avec ce genre de pression.si les anomalies reconstruites ne sont que 50 % plus grandes IL n'Y A PLUS RIEN DE SIGNIFICATIF.
En même temps, il faut bien expliquer le réchauffement observé sur quasiment toutes les grilles et particulièrement amplifié au pôle. Même si l'on parle de "variabilité naturelle", expliquer d'où elle vient au juste. Cela m'intéresserait d'ailleurs, dans une autre discussion, qu'un expert cause de cela parce que je n'arrive pas très bien à me représenter comment des T surface pourraient monter pendant plusieurs décennies sans forçage.
Tu dis qu'il n'y aurait "plus rien de significatif" si les courbes étaient 50% plus variables, mais si, il y aurait quand même des périodes de réchauffement / refroidissement significatif (passées ou présentes), et il faudrait bien expliquer ces oscillations pluridécennales, non ? Eh bien je suggère que si elles sont la réponse des T à un forçage faible, cela pèserait plutôt en faveur d'une forte sensibilité climatique. Note bien que cette réflexion, peut-être fausse, est relativement indépendante de la discussion précise des proxies, on peut en faire une discussion "dans l'abstrait" ou conditionnelle ("à supposer qu'il y ait des variations pluridécennales de ±1 K à l'époque préinstrumentale..."). Je veux juste savoir si l'on peut inférer d'une réponse forte à un forçage naturel la future réponse forte à un forçage anthropique.
Si je me fais l'avocat du diable , pour changer un peu, il n'est pas inconcevable d'imaginer des oscillations multi-décennales, d'origine océanique, qui provoquent des forçages indirects.
Par exemple on peut concevoir un changement de couverture nuageuse induit par une oscillation océanique de large échelle.
On retrouve ce phénomène, sur une échelle plus réduite, lors des épisodes Niño, par exemple.
Ceci dit on n'a pas repéré de telles variations de forçage, donc c'est un peu spéculatif.
Je suis d'accord avec meteor, c'est en effet une possibilité. Il est même fort probable que cela ait lieu plus ou moins fortement. Par contre, champ a raison de souligner que la distribution spatio temporelle du réchauffement est un élément essentiel à prendre en compte également.
Dix secondes pour écrire une bêtise, parfois des heures pour montrer à tous que c'en est une...
excuse moi, mais si AUCUN de tes 1000 thermomètres ou 1000 balance ne donne la meme chose, ça ne te pose pas de problème ?Je ne dis pas que c'est un critère de validité, j'observe simplement le peu d'effet d'un proxy isolé sur la courbe et m'interroge sur les autres. Si j'ai 1000 thermomètres et que l'on démontre que deux sont cassés, je suppose que la température moyenne mesurée ne va pas en être très affectée. Cela ne démontre pas que tous mes relevés de température sont faux...
Gilles, ce n'est évidemment pas le même cas de figure ! Enfin tel que je vois les choses, c'est plutôt un type qui me propose 1000 balances et il y a son concurrent qui me dit "ouh lala, cette balance-là, la 727e, elle marche pas" et toi tu veux que je mette à la poubelle les 1000 balances ! S'il y en a 1 ou 10 qui sont déréglées, mais si je fais la moyenne des poids indiqués, je vais effectivement trouver un poids pas très éloigné de mes 75 kg.
peux tu m'indiquer deux proxys individuels qui donnent le meme résultat dans le graphique suivant, que j'ai tiré de l'article récent (septembre 2009) de Kaufman, avec la même méthode en composante principale , d'apres le tableau qu'il donne lui meme?
le probleme est FONDAMENTALEMENT que la méthode de Mann et al. tire une composante principale d'un ensemble de proxy mutuellement incompatibles en supposant que c'etait correct de les normaliser sur une période et d'extrapoler dans les 1000 ans passés, et qu'il n'y a eu aucune validation globale de la méthode, et la démonstration claire que cette méthode pouvait donner n'importe quoi :
a) parce que rien n'empeche un proxy d'etre orienté à l'envers ou surestimé
b) parce que les différentes reconstructions donnent des résultats très variables ce qui prouve la non robustesse de la méthode
c) parce que McIntyre et al ont prouvé que par cette méthode, meme des courbes aléatoires pouvaient génériquement donner des formes de crosses de hockey bien corréles aux températures modernes.
Que Mann et al. aient choisi plus soigneusement leurs proxys et finissent par retrouver des résultats moins absurdes, c'est une chose. C'est largement insuffisant pour prouver que leur résultat est correct à la précision nécessaire pour en tirer la conclusion essentielle qu'ils veulent en donner (que la hausse récente des températures est sans précédent).
La ou je travaille, on attend d'avoir 5 sigmas au dessus du bruit avant de publier !!!!!
maintenant, c'est pas la peine de redire 1000 fois les memes choses. J'ai clairement exprimé les raisons de mes doutes. Si tu me dis un truc du genre "c'est pas possible qu'un papier à comité de lecture se trompe" ou "c'est trop compliqué on peut pas comprendre", l'information que tu m'apportes (personnellement ) est nulle. D'abord parce que je sais pertinemment qu'il est tout à fait possible que des papiers à comité de lecture soient faux (la preuve, tous les miens sont justes donc tous ceux de mes concurrents sont faux ), et ensuite parce que ce que j'ai compris, je l'ai compris et ce n'est donc pas trop compliqué pour moi.
Si tu avais tenté de m'expliquer pourquoi je me trompe et que je n'avais pas compris ton explication, OK, je reconnaitrais que je suis trop mauvais pour m'y attaquer . Mais sauf erreur tu ne m'as fourni aucune explication d'une complexité supérieure à ce que j'avais compris par moi-meme, donc tu ne peux pas me faire changer d'avis avec ça.
Faut pas se contenter de dire que MM l'ont prouvé.
Sinon tu prouves la sélectivité, pour ne pas dire partialité, de tes choix ou convictions, ou opinions, que sais-je.
Comportement que tu reproches, assez suffisamment, aux autres.
Donc moi je te demande, sans te commander, bien entendu, de prouver qu'une suite vraiment aléatoire de nombres peut se transformer en une crosse de hockey, par la méthode de Mann.
En sachent que la crosse de hockey c'est l'ensemble complet de l'outil sportif.
Pour moi c'est une affirmation grotesque, mais puisque tu es un scientifique éminent, j'attends avec confiance.
L'analogie n'est pas bien choisie.Si j'ai 1000 thermomètres et que l'on démontre que deux sont cassés, je suppose que la température moyenne mesurée ne va pas en être très affectée. Cela ne démontre pas que tous mes relevés de température sont faux. [...] S'il y en a 1 ou 10 qui sont déréglées, mais si je fais la moyenne des poids indiqués, je vais effectivement trouver un poids pas très éloigné de mes 75 kg.
C'est la méthode générale qui est remise en cause, car elle force la corrélation pendant la periode actuelle et se fiche totalement de la corrélation entre les proxys dans le passé => courbe plate puis montée => hockey stick.
Prenons l'exemple de paris sportifs: tu as 1000 amis qui font des paris sportifs sur les matchs du PSG.
Toi tu arrives lors de la 35ème journée et tu regardes qui prédit les bons scores pour PSG les 35, 36 et 37ème journées.Tu les sélectionnes (proxys), et tu te dis "ah bah eux ils ont eu bon pendant ces deux journées de championnat, donc si je prends leur historique et que je fais la moyenne j'aurai retracé fidèlement le parcours du PSG cette saison".
Donc tu le fais, et tu remarques que la courbe moyenne est assez stable pour les 34 premières journées malgré de grosses disparités entre prédictions de tes amis. Notons au passage que cette courbe n'a aucune raison d'être similaire à la courbe réelle des performances du PSG (températures réelles).
Et tu remarques qu'elle monte drastiquement pour les 35,36 et 37ème journée (ce qui n'est pas étonnant puisque tu as forcé la correlation initialement).
Tu te dis "ah bah je tiens je peux aussi utiliser ces amis pour prédire la 38ème journée" .... Et là, certains de tes amis sont complètement à l'ouest et la reconstruction moyenne bug (comme à partir de 1960) mais heureusement tu t'es abonné à France Football (mesure instrumentales) donc plus besoin de tes amis (prxoys).
Parmi ces amis sélectionnés il y avait sans doute des experts de foot, mais aussi des chanceux tout simplement. Et si chanceux > experts, la moyenne pour le passé est plate.
Une étude sur la corrélation entre tous les proxys utilisés sur les 1000 dernières années après multiplication pas le coef utilisé pour la calibration à la periode récente qui serait vraiment intéréssante.
Dernière modification par BioBen ; 04/12/2009 à 14h43.
On lira avec intérêt, je pense, cet article de Realclimate, en français s'il vous plaît, qui concerne la "théorie" de l'ACP.
Cela vaut certainement mieux, à mon sens, que telle ou telle comparaison fumeuse ou telle ou telle autre affirmation orientée.
De ce que j'ai pu lire, l'article ne répond pas sur le point principal abordé ici: forcer la corrélation pendant une certaine période et tester la corrélation des proxys entre eux.On lira avec intérêt, je pense
Change PSG à OM ou OL si tu préfèresCela vaut certainement mieux, à mon sens, que telle ou telle comparaison fumeuse
(J'ai enlevé "par la méthode de Mann", je n'ai toujours pas bien compris quelle est, dans tous ses détails, la méthode que Mann applique.)
C'est à la portée de n'importe qui de faire une simulation le montrant.
Tu prends un générateur aléatoire entre 0 et 1 et tu génères des quintillions de suites de 1000 nombres. (On les garde calibrés sur l'intervalle entre 0 et 1, cela n'a pas d'importance, l'étape de calibration les ramène dessus.) Tu leur applique à tous un filtre passe-bas différent, de manière à garder une auto-corrélation notable sur, disons, 50 valeurs successives.(1)
Ensuite tu prends un jeu étalon de 100 premières valeurs par exemple décroissant linéairement de 1 à 0.5.
Tu prends dans les quintillions de suites uniquement celles ayant un taux suffisamment grand de corrélation avec le jeu étalon sur les 100 premiers nombres.
Tu fais la moyenne de ces suites et tu regardes la courbe obtenue...
Perso, je n'ai aucun doute que cela donne ce qu'indique Gilles.
(1) Cette étape permet de garantir une grande variabilité des taux de corrélations avec le jeu étalon.
-----
La question est ailleurs. Elle est si la méthode décrite est bien celle appliquée par Mann et autres!
Dans le résumé dans le dernier message de Gilles, les points critiques sont
Est-ce correct? Sur quelle base Gilles se permet-il d'affirmer cela?et qu'il n'y a eu aucune validation globale de la méthode
Là encore, est-ce correct? Quelles sont les bases pour cette affirmation?b) parce que les différentes reconstructions donnent des résultats très variables
Cordialement,
Dernière modification par invité576543 ; 04/12/2009 à 15h47.
je ne suis pas sûr que tu aies bien lu, par exemple:
"3) Quelle convention a-t-elle été utilisée dans MBH98 ?
MBH98 se sont particulièrement intéressés à savoir si les anneaux de croissance mettaient en évidence des différences significatives par rapport à la période de calibrage au 20ème siècle, et en conséquence, ont normalisé les données pour que la moyenne dans cette période soit égale à zéro. Comme exposé plus haut, cela augmente l’importance des valeurs qui présente les plus grandes différences avec cette période (aussi bien négatives que positives). Comme la courbe de référence est en forme de « crosse de hockey », il n’est pas étonnant que les CP les plus importantes trouvées en utilisant cette convention soient eux-mêmes en forme de « crosse de hockey ». On trouve, en fait deux CP significatifs en utilisant cette convention, et ils ont été incorporés tous les deux dans la reconstitution complète."
on pourrait croire à un forçage de corrélation mais si on suit les recommandations de MM...
"4) Est-ce que le fait de changer de convention change la réponse ?
Comme discuté plus haut, une convention différente (MM05 suggèrent celle de fixer à zéro la moyenne sur l’ensemble des données) changera l’ordre, le degré de signification, et le nombre d’importants CP. Dans ce cas, le nombre de CP significatifs monte à 5 (peut-être 6) au lieu de 2 à l’origine. Voici la différence entre les points bleus (convention de MBH98) et les croix rouges (convention de MM05) dans le premier graphique. Le CP N°1 dans la convention de MBH98 descend au CP N° 4 dans la convention de MM05.
Ceci est illustré par la figure de droite, la courbe rouge représente le CP N° 1 d’origine et la courbe bleue le CP n° 4 de MM05 (ajustées pour avoir la même variance et la même moyenne).
Mais, comme nous l’avons fait remarquer plus haut, les données sous-jacentes ont une structure en forme de crosse de hockey, si bien que dans les deux cas, le CP en forme de crosse de hockey explique une partie significative de la variance. En conséquence, lors de l’utilisation de la convention MM05, on doit utiliser un nombre plus grand de CP afin de saisir les informations significatives contenues dans l’ensemble des anneaux de croissance."
en gros il est normal que l'on trouve une crosse de hockey puisque la réalité est en crosse de hockey.
Dernière modification par meteor31bis ; 04/12/2009 à 15h50.
oui on peut trafiquer suffisamment des nombres aléatoires pour obtenir une courbe de forme particulière.(J'ai enlevé "par la méthode de Mann", je n'ai toujours pas bien compris quelle est, dans tous ses détails, la méthode que Mann applique.)
C'est à la portée de n'importe qui de faire une simulation le montrant.
Tu prends un générateur aléatoire entre 0 et 1 et tu génères des quintillions de suites de 1000 nombres. (On les garde calibrés sur l'intervalle entre 0 et 1, cela n'a pas d'importance, l'étape de calibration les ramène dessus.) Tu leur applique à tous un filtre passe-bas différent, de manière à garder une auto-corrélation notable sur, disons, 50 valeurs successives.(1)
Ensuite tu prends un jeu étalon de 100 premières valeurs par exemple décroissant linéairement de 1 à 0.5.
Tu prends dans les quintillions de suites uniquement celles ayant un taux suffisamment grand de corrélation avec le jeu étalon sur les 100 premiers nombres.
Tu fais la moyenne de ces suites et tu regardes la courbe obtenue...
Perso, je n'ai aucun doute que cela donne ce qu'indique Gilles.
(1) Cette étape permet de garantir une grande variabilité des taux de corrélations avec le jeu étalon.
On peut aussi les choisir "à la main" c'est encore plus simple.
Hélas je ne connais pas suffisamment l'ACP.
Mais si cette méthode statistique permet d'obtenir "ce que l'on veut", ce n'en n'est pas une...
A moins que Mann et consors ne sachent pas l'appliquer, c'est possible...
posé comme ça en tous cas cela ressemble plus à une croyance qu'à une méthode !
je lis ceci dans le lien plus haut au paragraphe 2:
"Souvent, les quelques premières composantes représentent quelque chose de reconnaissable et de physiquement significatif (du moins dans le domaine climatique). Si une fraction importante de ces données montre une tendance, alors, la tendance moyenne peut révéler une des composantes principales (CP) les plus importantes."
autrement dit, les données elles-mêmes sont à l'origine de la composante principale (si le signal est suffisamment fort).
Il n'est pas question de forcer la corrélation avec la courbe des températures cette dernière est là pour la calibration.
tu as raison, ils n'ont pas pris une suite "vraiment" aléatoire (ce qui ne veut d'ailleurs pas dire grand chose avec une dynamique temporelle infinie), mais une courbe ayant un certain temps de corrélation, ce qui est assuré par un bruit rouge (plus de puissance dans les faibles fréquences). Si ce temps de corrélation est supérieur à la période de calibration, alors la plupart les courbes montent ou descendent pendant cette période, et l'ACP en fabrique simplement la CL "qui monte le plus" en les redressant toutes systématiquent dans le meme sens. Si on normalise ensuite cette courbe sur T moyen l'accord avec la courbe de température instrumentale est FORCEMENT ET NECESSAIREMENT bon.Faut pas se contenter de dire que MM l'ont prouvé.
Sinon tu prouves la sélectivité, pour ne pas dire partialité, de tes choix ou convictions, ou opinions, que sais-je.
Comportement que tu reproches, assez suffisamment, aux autres.
Donc moi je te demande, sans te commander, bien entendu, de prouver qu'une suite vraiment aléatoire de nombres peut se transformer en une crosse de hockey, par la méthode de Mann.
En sachent que la crosse de hockey c'est l'ensemble complet de l'outil sportif.
Pour moi c'est une affirmation grotesque, mais puisque tu es un scientifique éminent, j'attends avec confiance.
Mais une fois passé le temps de corrélation (dans le passé), les différents proxys sont totalement décorrélés et la courbe est plate autour de zéro.. un beau manche de crosse !
c'est BIEN EVIDEMMENT un cas extreme. Et les proxys ne sont probablement tous décorrélés à la température !! mais il est compréhensible que l'amplitude dans la moyenne dans le passé soit SOUS ESTIMEE par rapport à celle présente qui est MAXIMISEE par l'ACP (la composante principale est la CL de proxys ayant le maximum de variation possible ! ). Le biais de sous estimation me parait donc bien inévitable.
pour réaliser l'expérience, meme sans ACP
* génère un ensemble de courbes aléatoire normalisées (entre - 1 et 1 en ordonnée et entre 0 et 1 en abscisse)
1) calcule la régression linéaire de chacune sur un intervalle à la fin (entre 0, 9 et 1)
2) au lieu de faire une ACP compliquée , inverse simplement celles qui ont une pente négative, ce qui revient à dire que "le proxy est inversement corrélé à la température , puisqu'il baisse quand T augmente, donc je l'inverse pour avoir une bonne mesure de T"
3) fait la moyenne de ton échantillon "redressé".
4) observe la courbe obtenue.
sur la base du fait que comme le souligne le rapport de la NCA, il n'est pas possible de vérifier la reconstruction sur une période significativement décorrélée de celle ayant servi à la calibration, vu que la mesure des températures n'est pas faite depuis assez longtemps par rapport au temps de corrélation climatique.
Et que ça parait confirmé par l'impossibilité apparente des courbes globales de reproduire correctement les dernières decennies
euh, ben je regarde juste les courbes ...
Là encore, est-ce correct? Quelles sont les bases pour cette affirmation?
Cordialement,
http://www.ipcc.ch/graphics/ar4-wg1/jpg/fig-6-10.jpg
ok mais là tu "trafiques" à mort.pour réaliser l'expérience, meme sans ACP
* génère un ensemble de courbes aléatoire normalisées (entre - 1 et 1 en ordonnée et entre 0 et 1 en abscisse)
1) calcule la régression linéaire de chacune sur un intervalle à la fin (entre 0, 9 et 1)
2) au lieu de faire une ACP compliquée , inverse simplement celles qui ont une pente négative, ce qui revient à dire que "le proxy est inversement corrélé à la température , puisqu'il baisse quand T augmente, donc je l'inverse pour avoir une bonne mesure de T"
3) fait la moyenne de ton échantillon "redressé".
4) observe la courbe obtenue.
si j'ai bien compris, comme les courbes ne sont pas, en fait, aléatoires, mais qu'elles ont une forme drivée par un paramètre externe, ce sont elles qui génèrent la moyenne dont tu parles.
Je n'inclus pas dans mon raisonnement les erreurs type Tiljander et à la limite je me déconnecte de Mann, en envisageant le cas d'un proxy vraiment lié au paramètre extérieur.