Ce fil ne reflète pas l'état de la recherche et /ou de l'enseignement dans ces domaines.
On en reste là du HS.
-----
oui
non
peut être
ne sais pas
Ce fil ne reflète pas l'état de la recherche et /ou de l'enseignement dans ces domaines.
On en reste là du HS.
Dernière modification par mh34 ; 28/09/2018 à 12h05.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
s'il est permis de reprendre ce thread sur son thème je souhaiterais ajouter ce problème que je viens de découvrir :
https://www.science-et-vie.com/ciel-...-suspens-42558
pour ma part, le débat penche en ce sens :
le modèle standard est excellent (au problème de la matière noire près qui reste à régler), et la mesure de la constante de Hubble par la mission Planck est la bonne.
ce serait hors charte d'exposer les détails
Dernière modification par xxxxxxxx ; 24/11/2018 à 04h53.
Science et vie ne fait pas dans la dentelle question sensationnel , spécifier que le temps va s'arrêter est absurde personne ne sait ce qu'est le temps ce n'est pas parce qu'il y aura (éventuellement) un BIg Freeze que le temps va stopper. Ensuite il y a le problème de l'énergie noire que tu as oubliée. Je précise que même en l'absence de toute matière ou énergie dans un univers glacial resteront les fluctuations quantiques du vide donc des événements donc du temps.
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Bonjour
je ne vois pas le rapport avec le temps qui s'arrête dans le lien que j'ai posté. j'ai lu une interrogation sur la valeur de la constante de Hubble qui est différente suivant les instruments de mesure ce qui n'est pas sans conséquence sur la viabilité du modèle standard suivant la valeur retenue
edit je viens de voir le dossier il ajoutent que le temps va s'arrêter.
ben oui d'accord avec toi ils vendent du papier
Dernière modification par xxxxxxxx ; 16/12/2018 à 11h46.
Il y a un énorme encart: un jour le temps va s'arrêter?
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
oui j'ai vu, c'est à la suite avec un nouveau titre :
"Explorer ce sujet dans les archives :..."
arf. cette fois ça semble assez solide pour que futura se fende d'un nouvel article.
chapeau bas à Gilgamesh qui a vu d'où viendrait le premier coup porté au modèle cosmologique standard :
...
Par rapport aux évolutions possible du modèle ΛCDM, je pense en effet que les récents travaux de Reiss sur la mesure de H0 à l'aide de l’échafaudage : parallaxe - Céphéide - SNIA est ce qu'il faut suivre avec le plus d'attention. La publication récente des données Gaia (DR2) va notamment aider puissamment à diminuer les barres d'erreur dans la mesures de parallaxe et le calibrage des Céphéides.
Bonjour
Quelque chose que je comprends pas on nous dit que la constante de Hubble n'est peut-être pas constante, c'est une évidence elle a varié au cours du temps d'ailleurs j'ai la courbe dans mes fichiers, ensuite on nous dit que deux mesures divergent je veux bien qu'on mesure H(now) ou a peu près avec des étoiles suffisemment proches mais il me semble que avec le CMB on mesure H(380 000ans) non?
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Bonjour,
Non, on extrapole la valeur que devrait avoir H0 (i.e. la valeur de la "constante" aujourd'hui) à partir des résultats d'observation du CMB, grâce au modèle LambdaCDM,Bonjour
Quelque chose que je comprends pas on nous dit que la constante de Hubble n'est peut-être pas constante, c'est une évidence elle a varié au cours du temps d'ailleurs j'ai la courbe dans mes fichiers, ensuite on nous dit que deux mesures divergent je veux bien qu'on mesure H(now) ou a peu près avec des étoiles suffisemment proches mais il me semble que avec le CMB on mesure H(380 000ans) non?
C'est bien là que le bât blesse, puisque si le modèle est correct et les deux méthodes de "mesure" de H0 également, on devrait tomber sur la même valeur aux erreurs systématiques près. Et ce n'est pas le cas, maintenant on en est certains.
La conclusion de cet écart entre Planck (67 km/s/Mpc) et Hubble (74 km/s/Mpc) ne pourrait-elle etre que l'accélération de l'univers augmente, Planck mesurant à priori à partir du CMB, on ne peut plus ancien, par rapport à Hubble sur des étoiles Céphéides relativement proches donc jeunes?
Bonjour,
l'accélération de l'expansion est vérifiée avec l'étude des SNIa distantes. Mais cela n'empêche pas H de diminuer au cours du temps, qu'on prenne la valeur de "Planck" ou celle de "Reiss". Il y a forcément quelque chose qui cloche dans le modèle car l'équipe "planck" est sûre de la valeur de Ho (à 1 sigma près si ma mémoire est bonne) et l'équipe "Reiss" sûre de la sienne avec une meilleure précision.
Oui mais l'extrapolation de H0 par Planck est issue d'un modèle qui n'est pas totalement certain alors que Riess a fait de vraies mesures physiques?Bonjour,
l'accélération de l'expansion est vérifiée avec l'étude des SNIa distantes. Mais cela n'empêche pas H de diminuer au cours du temps, qu'on prenne la valeur de "Planck" ou celle de "Reiss". Il y a forcément quelque chose qui cloche dans le modèle car l'équipe "planck" est sûre de la valeur de Ho (à 1 sigma près si ma mémoire est bonne) et l'équipe "Reiss" sûre de la sienne avec une meilleure précision.
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
L'écart entre les valeurs de Ho obtenues par Planck et Riess est d'environ 4,4 σ. D'ailleurs d'autres méthodes de détermination entre jeune univers et univers tardif montrent également des différences. Ho est toujours plus grande quand elle est calculée pour l'univers tardif.
Même en prenant les 6 paramètres cosmologiques qui "vont bien" du spectre de puissance du CMB (que ce soit avec planck ou WMAP) et en affinant les mesures sur l'univers tardif il y a toujours divergence sur Ho.
Ce qui conduit Riess et ses collaborateurs à dire "que le désaccord entre les deux valeurs ne peut plus être dû à une erreur statistique ou systématique et qu'il implique forcément l'existence d'une nouvelle physique qui va au-delà du modèle LambdaCDM".
ça c'est H(t) publié par ailleurs sur ce forum. Il est évident que H n'a fait que décroître. Je pense que cette courbe est issue du modèle lambdaCDM évidemment si le modèle et faux la courbe ne vaut rien pas plus que l'âge de l'Univers ou tout ce qu'on croit savoir.
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Même si le modèle est faux, il ne l'est pas de beaucoup. Sinon on n'aboutirait pas à un écart inférieur à 10% sur la valeur de H0 au bout de 14 milliards d'années. Donc, non, ça ne va pas révolutionner "tout ce qu'on croit savoir". De toute façon on ne sait déjà pas de quoi Lambda est le nom...Pièce jointe 387909
ça c'est H(t) publié par ailleurs sur ce forum. Il est évident que H n'a fait que décroître. Je pense que cette courbe est issue du modèle lambdaCDM évidemment si le modèle et faux la courbe ne vaut rien pas plus que l'âge de l'Univers ou tout ce qu'on croit savoir.
Ce qui est acquis depuis 20 ans, c'est que l'expansion ne ralentit pas : surprise !
Quant à l'évolution de H(t), on est encore dans le flou... Selon certains chercheurs, les données disponibles ne sont pas incompatibles avec H(t) constante depuis au moins 10 Gy.
La réalité, c'est ce qui reste quand on cesse de croire à la matrice logicielle.
heu.. je pense que tu as confondu et H(t)
ou alors y a un truc qui m'échappe
Dernière modification par xxxxxxxx ; 30/04/2019 à 18h26.
Tout à fait.
Le modèle lambdaCDM donne une valeur plus faible de Ho que ce qu'on observe localement d'où le commentaire de Riess. Quelques pistes sont évoquées (je ne sais pas si on peut vraiment parler de "nouvelle physique") pour réduire l'écart observé :
" 1) Une injection d'énergie noire (ou d'expansion) avant la recombinaison et l'émission du fond diffus cosmologique, ce qui aurait notamment pour effet de modifier la taille des oscillations acoustiques, on parle dans ce cas d'"énergie sombre précoce",
2) L'existence d'une espèce supplémentaire de particules relativistes (des neutrinos ?) apportant des interactions en surplus dans l'Univers primordial (on parle alors de "rayonnement sombre"),
3) L'existence d'une interaction plus forte que prévu entre particules de matière noire et particules de matière baryonique."
Affaire à suivre.
On voit bien sur cette courbe que le problème posé ne représente même pas l'épaisseur du trait ! Mais ça reste quand même un problème.Pièce jointe 387909
ça c'est H(t) publié par ailleurs sur ce forum. Il est évident que H n'a fait que décroître. Je pense que cette courbe est issue du modèle lambdaCDM évidemment si le modèle et faux la courbe ne vaut rien pas plus que l'âge de l'Univers ou tout ce qu'on croit savoir.
De là, à jeter le modèle LCDM avec l'eau du bain il y a encore de la marge !
Bonjour,
Si le modèle LambdaCDM devait être remis en cause suite aux écarts constatés entre les estimations de H0 obtenues à partir des résultats de Planck et celles obtenues à partir de la relation redshift / luminosité des SN1a, il ne s'agirait pas forcément pour autant de "nouvelle physique".
L'hypothèse essentielle sur laquelle le modèle LambdaCDM est basé est l'homogénéité et l'isotropie des hypersurfaces spatiales (à temps cosmique constant), qui conduit à la solution simple des équations d'Einstein que sont la métrique FLRW et les équations de Friedmann. Cette solution est à la base du modèle cosmologique établi il y a près d'un siècle et jamais fondamentalement remis en question depuis par la majorité des cosmologistes, qui se sont contenté d'en adopter successivement plusieurs variantes pour coller aux nouvelles observations - et en particulier de remettre au goût du jour la constante cosmologique (le paramètre Lambda) lorsqu'en 1998 il est apparu que les SN1a s'éloignaient plus vite que prévu en fonction de leur distance.
Mais si cette homogénéité est indéniable à l'époque du CMB, elle est beaucoup plus contestable aux époques "récentes", depuis la formation des grandes structures durant les premiers milliards d'années de l'histoire de l'univers.
L'autre hypothèse conduisant au choix de la solution particulière de l'équation de Friedmann qu'est le modèle LambdaCDM est celle, déduite des observations du CMB, que les hypersurfaces spatiales de l'espace-temps sont "plates", c'est-à-dire décrites par une géométrie euclidienne. Cependant si on a une mesure fiable de la de courbure spatiale (ou plutôt de son absence) à l'époque du CMB, je ne sais pas si on peut en dire autant de la courbure spatiale moyenne dans l'univers récent, constitué de vastes zones de sous-densité, de courbure spatiale négative, et de sur-densité, de courbure spatiale positive. Par exemple une courbure moyenne négative pourrait émerger progressivement de la dissymétrie croissante entre ces deux types de zones, comme on va le voir ci-dessous.
Ci-dessous un graphique assez parlant, issu de la publication "Evolution of the cosmic web" (M. Cautun et al., 2014):
Pièce jointe 387944
En gros, à l'époque actuelle, 75% du volume de l'univers observable est constitué de vides cosmiques, qui ne contiennent que 15% de sa masse.
Les grandes zones de sur-densité ne représentent que 25% du volume, pour 75% de la masse, et les structures virialisées (galaxies et amas) ne représentent qu'environ 0,1% du volume, pour 10% de sa masse.
Localement le taux d'expansion est très différent suivant le type de zone considéré, pouvant aller de 0 au sein d'une structure virialisée jusqu'à une valeur dans les vides cosmiques significativement supérieure au taux d'expansion moyen de l'univers.
Quand on estime H0 d'après les observations de l'univers "récent", il s'agit donc en fait d'un taux moyen. Compte-tenu de la taille des plus grandes structures (le diamètre des plus grands vides cosmiques est de plusieurs centaines de Mpc), pour pouvoir considérer que cette mesure donnerait le même résultat si nous nous trouvions dans une autre région de l'univers, il faut qu'elle soit effectuée à partir de l'observation du redshift d'objets distants d'au moins plusieurs centaines de Mpc. Mais c'est bien ce qui est fait dans les publications de l'équipe de Adam Riess, dont l'estimation de H0 est basée sur l'observations de SN1a de redshifts compris 0,1 à 2 (si je me rappelle bien).
Au vu des chiffres ci-dessus, le rôle des vides est prépondérant dans cette moyenne. Et surtout cette prépondérance s'est accrue avec le temps : en effet il y a plusieurs milliards d'années, d'une part le pourcentage du volume occupé par les vides était moins important, d'autre part leur densité était moins faible par rapport à celle de l'univers (les vides "se creusent" de plus en plus, en repoussant la matière vers leurs bords), et donc l'écart entre leur taux d'expansion moyen et celui des zones sur-denses était moins important.
Avant la formation des grandes structures on peut estimer qu'il y avait une symétrie entre les zones de sous-densité et les zones de sur-densité. Dans les unes comme dans les autres, la densité, la courbure spatiale et le taux d'expansion local s'écartaient peu des valeurs moyennes, donc l'approximation par la métrique FLRW reste légitime. Mais cette symétrie s'est progressivement rompue par le collapse des zones de sur-densité sous l'effet de la gravitation, collapse qui conduit à la création des amas de galaxies. Il est loin d'être évident qu'on puisse continuer d'approximer la géométrie de l'espace-temps à grande échelle par une métrique basée sur une courbure spatiale et une densité de matière partout identiques.
Qui plus est, la non-linéarité des équations d'Einstein fait que, si on construit des équations équivalentes à celle de Friedmann mais portant sur des valeurs moyennes dans un volume spatial comobile non homogène, un terme supplémentaire apparaît, qui dépend de la variance du taux d'expansion et du tenseur de cisaillement (cf. Thomas Buchert, 1999), et qui peut avoir un effet similaire à celui de Lambda, mais variable en fonction du temps - ou plutôt en fonction de la non-homogénéité des hypersurfaces spatiales de l'espace-temps.
On aboutit ainsi à des équations de Friedmann "effectives" pour l'univers "moyen", analogues à celles du modèle LambdaCDM mais avec un paramètre Lambda(t) qui pourrait bien expliquer les écarts constatés entre les valeurs de H0 suivant qu'elles sont déduites du modèle LambdaCDM (où Lambda est une constante) ou estimées à partir des observations de l'univers récent, sans a priori sur le modèle.
tout cela me plait bien je n'ai jamais compris pourquoi on parlait d'Univers homogène alors qu'on découvre des structures de 500 millions d'AL comme Laniakea. En fait lambda CDM est trop simple. Est-ce que le taux d'expansion H0 pourrait être variable d'une région à l'autre?
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Cela dépend de ce qu'on appelle H0.
Si on le définit comme étant le taux d'expansion moyen de l'univers (où de manière équivalente, le taux d'expansion moyen d'une région de taille supérieure à l'échelle d'homogénéité), H0 est indépendant de l'endroit d'où on le "mesure".
En revanche si on prend une région trop petite, disons de diamètre inférieur à 100 Mpc, alors la région toute entière peut être contenue à l'intérieur d'un vide cosmique, ou être essentiellement constituée d'un superamas, et suivant le cas son taux d'expansion moyen sera bien différent.
D'où l'importance dans la méthode de mesure de H0 par la méthode de la "cosmic distance ladder", de choisir un échantillon de SN1a situées à des distances supérieures à ~100 Mpc. D'ailleurs, si on les choisissait moins lointaines, le taux d'expansion obtenu ne serait pas isotrope (identique dans toutes les directions).
Cf. la figure 10 page 40 de la publication de 2016 de Riess et al. qui montre l'échelle de distances complète, et où on voit que les SN1a utilisées pour la détermination de H0 (en haut à droite, en rouge) sont très majoritairement distantes de plus de 100 Mpc, et jusqu'à 2000 Mpc (attention, l'échelle de l'axe horizontal est 5 log D[Mpc] + 25, donc par exemple la valeur 35 de cet axe correspond à 100 Mpc).
et Merci
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Je ne vois pas où se situe la simplicité. On part bien sûr du postulat d'isotropie et d'homogénéité à grande échelle qui semble tenir la route et on tient compte des différents paramètres de densité : courbure (considérée nulle mais l'étude du CMB n'interdit pas d'autres possibilités) ; matière (baryonique et noire dont on ne sait pas ce que c'est) ; énergie noire (dont on ne sait pas ce que c'est) ; rayonnement. Quand on ignore la nature de près de 95% de l'univers je ne trouve pas que ce soit "simple".
H(t)= a'(t) / a(t). H(t) diminue parce que le facteur d'échelle a(t) croît plus vite que a'(t). On considère que Ho est la même partout. Si je ne fais pas d'erreur, pour que Ho soit différente d'une région à l'autre il faudrait que a(t) soit différent. Je ne sais pas si on a déjà émis une telle hypothèse et si c'est pertinent.Est-ce que le taux d'expansion H0 pourrait être variable d'une région à l'autre?
- Tu prends un temps absolu, un espace absolu. Tu les autorises a être indépendants. Tu joues avec jusqu’à trouver comment l’espace doit varier en fonction du temps pour coller à ce qu’on voit. C’est simplissime.
- Tu prends un espace temps 4D. Tu construits un modèle pour lequel une «coupe/cone passé» décrit ce qu’un observateur voit en 3D. Tu viens de sortir de la «simplicité»...
Dernière modification par Mailou75 ; 01/05/2019 à 20h45.
Trollus vulgaris
Et pourtant, si. Comment veux-tu que la masse des structures virialisées (dans lequel le taux d'expansion est nul) représente plus de 10% de celle du l'univers si le taux d'expansion local dans les vides cosmiques est égal au taux d'expansion moyen H0 ?H(t)= a'(t) / a(t). H(t) diminue parce que le facteur d'échelle a(t) croît plus vite que a'(t). On considère que Ho est la même partout. Si je ne fais pas d'erreur, pour que Ho soit différente d'une région à l'autre il faudrait que a(t) soit différent. Je ne sais pas si on a déjà émis une telle hypothèse et si c'est pertinent.
A tout le moins il faut que le taux d'expansion moyen dans le reste de l'univers observable (dont les vides) soit plus élevé de 10% - et certainement plus élevé dans les vides que dans les filaments et "walls" (je ne sais pas si on dit "murs" en français).
Heu.. je ne vois pas le lien entre les six paramètres cosmologiques extraits du spectre de puissance du CMB (et donc la valeur dérivée pour Ho) et ce que tu dis.
Peut-être, mais je reste circonspect car visiblement Riess n'évoque pas cette possibilité (voir mon message #78) et parle de "nouvelle physique" à ajouter au modèle LCDM.Et pourtant, si. Comment veux-tu que la masse des structures virialisées (dans lequel le taux d'expansion est nul) représente plus de 10% de celle du l'univers si le taux d'expansion local dans les vides cosmiques est égal au taux d'expansion moyen H0 ?
A tout le moins il faut que le taux d'expansion moyen dans le reste de l'univers observable (dont les vides) soit plus élevé de 10% - et certainement plus élevé dans les vides que dans les filaments et "walls" (je ne sais pas si on dit "murs" en français).
A partir de ce qu'il propose je comprends que cela aurait eu pour effet que a(t) n'aurait pas augmenté autant qu'attendu (d'ou une H(t) plus grande) mais je peux me tromper (sûrement).
Moi aussi.
Mais j'aime bien l'idée, justement parce qu'elle ne nécessite pas de "nouvelle physique". Et aussi parce qu'elle explique la coïncidence qui fait que l'époque où Omega_Lambda devient prédominant est justement celle où les grandes structures se forment et l'univers devient fortement inhomogène aux échelles inférieures à quelque centaines de Mpc.
Oui, j'avais lu la conclusion de sa publication. On verra bien qui a raisoncar visiblement Riess n'évoque pas cette possibilité (voir mon message #78) et parle de "nouvelle physique" à ajouter au modèle LCDM.