Bonjour
Votre avis sur ce que cela pourrait vouloir dire?
https://trustmyscience.com/expansion...ique-actuelle/
-----
Bonjour
Votre avis sur ce que cela pourrait vouloir dire?
https://trustmyscience.com/expansion...ique-actuelle/
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Mystère, mais venant de Riess, c'est excitant.Bonjour
Votre avis sur ce que cela pourrait vouloir dire?
https://trustmyscience.com/expansion...ique-actuelle/
On n'est toujours pas à 5 sigma, ceci dit. Il faudra attendre les données de Gaïa.
Un petit podcast de vulgarisation ici (en français):
Constante de Hubble : nouvelle mesure et renforcement du désaccord avec la valeur issue du CMB
Et la conférence qui annonçait l'anomalie il y a un an, par Riess lui même (en anglais) :
A New Measurement of the Expansion Rate of the Universe
Concernant les modification possibles du modèle pour concilier ses mesures avec celle de Planck, c'est esquissé ici :
https://youtu.be/eSPCy-IJaPg?t=2045
Peut être une interaction matière noire - rayonnement.
Parcours Etranges
Supers ces liens mais une question que je me pose. Ce qu'on mesure c'est H0 donc H aujourd'hui qu'est-ce que cela veut dire étant donné que tout ce qu'on voit est d'un âge proportionnel à sa distance?
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
J'ai lu, mais l'article n'explique pas le pourquoi des différences entre Hubble et Planck.
Fondamentalement, que mesurent ces deux satellites ? J'imagine que Hubble s'attache à la lumière visible tandis que Planck s'attache au rayonnement fossile. C'est bien ça ?
Avec hubble on mesure avec plus de précision la distance des céphéides et avec le décalage vers le rouge on recalcule H0. Avec le CMB je ne sais pas comment on calcule H0?
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Avec les données de Planck on calcule H0 avec l'équation de Friedmann
H(1+z)2 = H02[Ω0,r(1+z)-4 + Ω0,m(1+z)-3 + Ω0,k(1+z)-2 + Ω0,Λ]
Les indices 0 dénotent la valeur actuelle des Ω.
On mesure précisément le (1+z) du CMB (on calcule sa température d'émission sur la base de la physique des plasma, et on mesure sa température actuelle).
On mesure précisément la densité de rayonnement actuelle Ω0,r.
On mesure précisément, via la position du premier pic du spectre, la taille angulaire des inhomogénéités du CMB dont la taille absolue est connue par des modèle de croissance des ondes acoustiques dans un plasma de densité connue. Cette taille absolue des inhomogénéité sert de règle standard. On en déduit de part sa taille angulaire que la courbure Ω0,k est proche de zéro.
ON ajuste les deux composantes de la densité de matière au moment de la recombinaison Ωm = Ωb (baryons) + ΩCDM (matière noire) pour reproduire parfaitement la positions et la hauteurs des pics dans le spectre des anisotropies.
On en déduit Ω0,Λ (et on fait l'hypothèse qu'il ne varie pas avec z)
Et on calcule H0 avec tout ça.
Dernière modification par Gilgamesh ; 03/09/2018 à 11h15.
Parcours Etranges
Bonjour,
Et si cette hypothèse (liée au fait que, historiquement, Λ a été introduite dans l'équation d'Einstein comme une constante) était erronée ?
Par exemple si Ω0,Λ(1+z) tend vers 0 pour les grandes valeurs de z... ?
Je pense à la cosmologie inhomogène de T. Buchert et al., qui part d'un espace-temps d'Einstein-de Sitter (avec Λ=0) à l'époque du CMB (où les inhomogénéités sont très faibles), et dans laquelle Λ apparaît progressivement comme une conséquence des hétérogénéités croissantes de la densité de matière de l'univers (et non comme une mystérieuse énergie noire). Le tout sans faire appel à une "nouvelle physique", puisqu'il ne s'agit que d'appliquer rigoureusement les équations de la RG, en abandonnant seulement l'hypothèse d'homogénéité de l'univers à toute échelle sur laquelle est basée la métrique de Friedmann-Lemaître.
Si on remplace Ω0,Λ par Ω0,Λ(1+z) dans ton équation, et que cette valeur tend vers 0 pour les grands z, on arrive bien à une valeur supérieure de H0, peut-être compatible avec les observations de Riess et al. (faudrait faire le calcul). Si c'est le cas, ça pourrait être un argument indirect en faveur d'un Λ évoluant en fonction du temps...
Ce qui m'étonne dans le modèle Friedmann-Lemaitre c'est qu'on a postulé lambda comme une constante? Sur quelle base?
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
J'ai dit un peu n'importe-quoi au dernier paragraphe du message précédent : vu la très forte densité d'énergie à l'époque du CMB, dans l'hypothèse où Λ est constante, ΩΛ y est négligeable par rapport aux autres termes, donc on arrive à la même valeur de H0 qu'en prenant ΩΛ(1+z)=0 (pour z très grand) dans l'équation de Gilgamesh.
Sur la base de l'équation d'Einstein avec constante cosmologique. Si Λ n'est pas constante, la relativité générale devient un peu plus compliquée (du moins dans les situations où on ne peut pas négliger ce terme, comme la cosmologie)...
Mais ça va plus loin : ce dont on peut s'étonner, c'est qu'en cosmologie on postule encore l'univers comme suffisamment homogène pour être modélisé par un fluide de densité homogène à toute échelle. Alors que les observations montrent que l'échelle à partir de laquelle cette approximation commence à être acceptable est de plusieurs centaines de Mpc (un à deux milliards d'années-lumière), ce qui n'est pas vraiment négligeable par rapport à la taille de l'univers observable.
Il faudrait au moins prouver que l'effet moyen de la non-homogénéité de l'univers est identique à l'effet d'une densité de matière homogène. Buchert et autres sont convaincus du contraire : selon eux, l'opération de moyennage de l'équation locale d'Einstein appliquée à un ensemble de domaines de sur- et de sous-densité (les amas de galaxies et les vides cosmiques) fait apparaître un terme de "backreaction" du fait de la non-linéarité de cette équation ; en fait un terme de courbure supplémentaire (et donc un autre Ω à prendre en compte dans l'équation citée par Gilgamesh). Et dans leur modèle il est plausible que Λ ne soit qu'un artefact : en reconstruisant l'histoire de l'univers avec Λ=0 mais sans oublier ce terme de backreaction variable, ils arrivent aux mêmes résultats que le modèle ΛCDM. Voir par exemple https://arxiv.org/abs/1002.3912v2.
C'est à mon avis une excellente remarque.Sur la base de l'équation d'Einstein avec constante cosmologique. Si Λ n'est pas constante, la relativité générale devient un peu plus compliquée (du moins dans les situations où on ne peut pas négliger ce terme, comme la cosmologie)...
Mais ça va plus loin : ce dont on peut s'étonner, c'est qu'en cosmologie on postule encore l'univers comme suffisamment homogène pour être modélisé par un fluide de densité homogène à toute échelle. Alors que les observations montrent que l'échelle à partir de laquelle cette approximation commence à être acceptable est de plusieurs centaines de Mpc (un à deux milliards d'années-lumière), ce qui n'est pas vraiment négligeable par rapport à la taille de l'univers observable.
Il faudrait au moins prouver que l'effet moyen de la non-homogénéité de l'univers est identique à l'effet d'une densité de matière homogène. Buchert et autres sont convaincus du contraire : selon eux, l'opération de moyennage de l'équation locale d'Einstein appliquée à un ensemble de domaines de sur- et de sous-densité (les amas de galaxies et les vides cosmiques) fait apparaître un terme de "backreaction" du fait de la non-linéarité de cette équation ; en fait un terme de courbure supplémentaire (et donc un autre Ω à prendre en compte dans l'équation citée par Gilgamesh). Et dans leur modèle il est plausible que Λ ne soit qu'un artefact : en reconstruisant l'histoire de l'univers avec Λ=0 mais sans oublier ce terme de backreaction variable, ils arrivent aux mêmes résultats que le modèle ΛCDM. Voir par exemple https://arxiv.org/abs/1002.3912v2.
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Que l'on mesure H0 sur des céphéides qui sont à tout casser à quelques milliers d'AL de nous c'est à dire dan notre voisinage OK car H n'a pas varié sensiblement le temps que leur lumière nous parvienne. Mais que dire de structures qui étaient à des Md d'AL de nous au moment ou elles ont émis la lumière que nous recevons aujourd'hui (et qui sont "now" beaucoup plus loin si toutefois elles existent encore) il faut intégrer H qui n'e'st pas une constante sur les Md d'années de parcourt de leur lumière non?
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Hubble, l'astronome, compara les céphéides de notre galaxie avec les céphéides des autres galaxies : il établit une loi où le rougissement z est proportionnel à la distance de luminosité dL.
H0 est la constante de proportionnalité dans cette loi.
Hubble, le télescope, a permis de contraindre H0 autour de 72 km/s par Mpc (plus ou moins 8) au début du siècle. Cela fut fait en observant des petits rougissements (z = 0,05 ou z = 0,1).
Et ces dernières années on est arrivé à 72 < H0 < 75.
Mais H(t) diminue avec le temps : elle était plus grande dans le passé.
Hubble, le télescope, grâce à l'observation des SN Ia jusqu'à des rougissements z = 1, a permis en 1998 de cerner l'histoire de H(t) ces derniers milliards d'années. Et, surprise, H(t) était moins grande à cette époque, elle a moins diminué qu'on ne le pensait.
La réalité, c'est ce qui reste quand on cesse de croire à la matrice logicielle.
Oui H(t) tend à devenir constante plus vite que prévu ce qui est le signe du...big rip?Mais H(t) diminue avec le temps : elle était plus grande dans le passé.
Hubble, le télescope, grâce à l'observation des SN Ia jusqu'à des rougissements z = 1, a permis en 1998 de cerner l'histoire de H(t) ces derniers milliards d'années. Et, surprise, H(t) était moins grande à cette époque, elle a moins diminué qu'on ne le pensait.
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Parcours Etranges
Salut,
Ce que je vais dire me parrait tellement évident que c’est sans doute absurde, mais il parait que le ridicule ne tue pas... j’ai de beaux jours devant moi
N’a-t-on pas par definition Om+Ol=1 (en fixant une courbure nulle et en négligeant Or)? Du coup par le passé quand la matiere est extremement dense on a Om~1 et Ol~0 et avec le temps la densité diminue fortement, Om tend vers 0 et Ol vers 1 (on tend vers Univers de Sitter)?
Merci
Mailou
Dernière modification par Mailou75 ; 03/09/2018 à 23h33.
Trollus vulgaris
Oui, ta remarque n'a rien de ridicule ! J'ai dit une bêtise (mais j'ai rectifié dans le message suivant)
Et à l'origine, pour une mauvaise raison : Einstein en avait besoin parce qu'il tenait à une solution statique. Mais d'une part l'expérience l'a rapidement contredit, d'autre part il a été démontré que cette solution statique était instable.
Quoi qu'il en soit, l'équation d'Einstein avec la constante Lambda (pouvant prendre une valeur quelconque, dont 0) est plus générale que celle sans Lambda. Les physiciens ont donc traîné ce Lambda dans leurs calculs pendant des décennies, à commencer par Friedmann dans ses équations, alors que les observations semblaient indiquer qu'on pouvait s'en passer... Ce n'est qu'il y a une vingtaine d'années qu'on a découvert que l'expansion de l'univers était accélérée, et donc que, selon les équations de Friedmann (pour un espace-temps spatialement homogène et isotrope et de courbure spatiale nulle), Lambda devait être strictement positif.
Je trouve quand même fort de café qu'on postule un truc constant comme ça?Et à l'origine, pour une mauvaise raison : Einstein en avait besoin parce qu'il tenait à une solution statique. Mais d'une part l'expérience l'a rapidement contredit, d'autre part il a été démontré que cette solution statique était instable.
Quoi qu'il en soit, l'équation d'Einstein avec la constante Lambda (pouvant prendre une valeur quelconque, dont 0) est plus générale que celle sans Lambda. Les physiciens ont donc traîné ce Lambda dans leurs calculs pendant des décennies, à commencer par Friedmann dans ses équations, alors que les observations semblaient indiquer qu'on pouvait s'en passer... Ce n'est qu'il y a une vingtaine d'années qu'on a découvert que l'expansion de l'univers était accélérée, et donc que, selon les équations de Friedmann (pour un espace-temps spatialement homogène et isotrope et de courbure spatiale nulle), Lambda devait être strictement positif.
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Si Λ n'était pas constante (i.e. dépendait du temps), la divergence du membre de gauche de l'équation d'Einstein (G+Λg, où G est le tenseur d'Einstein et g le tenseur métrique) ne serait pas nulle, donc la divergence du tenseur énergie-impulsion serait également non nulle. Cela remettrait en question l'un des postulats de base de la RG (et de la physique en général !), la conservation locale de l'énergie. C'est plutôt ça qui serait fort de café...
Si Λ n'était pas constante (i.e. dépendait du temps), la divergence du membre de gauche de l'équation d'Einstein (G+Λg, où G est le tenseur d'Einstein et g le tenseur métrique) ne serait pas nulle, donc la divergence du tenseur énergie-impulsion serait également non nulle. Cela remettrait en question l'un des postulats de base de la RG (et de la physique en général !), la conservation locale de l'énergie. C'est plutôt ça qui serait fort de café...
ok alors la conservation non locale de l'énergie sans cela ou allons nous?
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Bon reste alors l'origine de lambda énergie quantique du vide ça ne colle pas car il y a un léger facteur 10**120 de divergence. ET puis l’énergie du vide me semble devoir être nulle en moyenne. Serait-ce une propriété intrinsèque de l'espace?
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Pourquoi pas...?
Mais je préfère l'idée d'un Λ nul dans l'équation locale de la RG et remplacé par un terme de backreaction émergeant lorsqu'on utilise cette équation locale pour établir des équations portant sur des valeurs moyennes à l'échelle de l'univers observable (*) sans négliger l'effet des inhomogénéités.
Cette idée présente l'avantage de ne remettre en cause aucun des principes fondamentaux de la physique actuelle, tout en étant potentiellement capable d'expliquer les observations : en effet les équations obtenues pour les valeurs moyennes du taux d'expansion (H), de la densité de matière (rho) et de la courbure (incluant le terme de backreaction) sont analogues aux équations de Friedmann.
(*) ou du moins à l'échelle (plusieurs centaines de Mpc) à partir de laquelle on peut considérer que n'importe-quel volume de l'univers est en moyenne identique à n'importe-quel autre.
On pense plutôt à un processus de compensation incomplet (mais proche de zéro) entre les fermions (contribution négative, avec la mer de Dirac) et les bosons (contribution positive). Clairement avec le modèle standard, ça ne marche pas, avec la supersymétrie ça améliore un peu mais on a quand même un exposant à deux chiffres entre le prévu et l'observé. Mais y'a tellement de place dans les hautes énergie que tout reste à découvrir.
Parcours Etranges
Trollus vulgaris
En fait lambda intervient naturellement dans l'équation d'Einstein, c'est ce que dit Aurélien Barrau il parle d'un groupe de Poincaré mais en fait je n'ai pas trop compris.Si Λ n'était pas constante (i.e. dépendait du temps), la divergence du membre de gauche de l'équation d'Einstein (G+Λg, où G est le tenseur d'Einstein et g le tenseur métrique) ne serait pas nulle, donc la divergence du tenseur énergie-impulsion serait également non nulle. Cela remettrait en question l'un des postulats de base de la RG (et de la physique en général !), la conservation locale de l'énergie. C'est plutôt ça qui serait fort de café...
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).