Et après relecture de la publication de Riess, en mars dernier, sur le sujet, l'accent est vraiment mis sur le côté obscur de l'univers (énergie noire, matière noire et même rayonnement noir avec les neutrinos !).
-----
oui
non
peut être
ne sais pas
Et après relecture de la publication de Riess, en mars dernier, sur le sujet, l'accent est vraiment mis sur le côté obscur de l'univers (énergie noire, matière noire et même rayonnement noir avec les neutrinos !).
Bonjour,
J'ai effectivement l'impression que peu d'astrophysiciens prennent au sérieux les modèles de cosmologie non-homogène, soit par méconnaissance du sujet, soit parce que ça ne colle pas avec leur vision basée sur le modèle cosmologique adopté depuis le milieu du 20e siècle, qui repose sur l'hypothèse que notre univers peut être décrit en très bonne approximation par un modèle d'espace-temps parfaitement homogène et isotrope à toute époque, et qui n'a fait l'objet depuis que d'ajustements permettant de coller aux nouvelles observations - LambdaCDM n'en étant que la dernière variante.
Mais (juste pour dire que ce n'est pas une lubie perso) il y a quand-même des théoriciens reconnus qui y travaillent aujourd'hui, comme Thomas Buchert que j'ai déjà cité, ou David Wiltshire, et ce courant de pensée remonte en particulier à George Ellis.
D'ailleurs, déjà dans les années 1930, Tolman avait reconnu l'importance de la prise en compte de la non-homogénéité de l'univers, et établi une solution générale de l'équation d'Einstein pour un espace-temps non homogène à symétrie sphérique - solution qu'avait également trouvée Lemaître et qui est connue aujourd'hui sous le nom de métrique de Lemaître-Tolman-Bondi (LTB). Voici ce qu'en dit Tolman dans l'introduction de son article de 1934 Effect of inhomogeneity on cosmological models:
Malheureusement cette solution, qui par sa simplicité ne permet de construire que des "toy models" (du moins quand on cherche à l'appliquer à l'univers dans son ensemble), reste représentative dans l'esprit de pas mal de gens de ce qu'est un modèle de cosmologie non-homogène, et est souvent utilisée comme contre-exemple pour réfuter ce type de modèles en les assimilant à tort à l'idée simple mais probablement fausse que l'apparente accélération de l'expansion pourrait être due au fait que nous nous trouvons au centre d'un grand vide cosmique (cf. par exemple la réponse que m'a faite Stacy McGaugh suite à un commentaire sur son blog).In the application of relativistic mechanics and relativistic thermodynamics to cosmology, it has been usual to consider homogeneous models of the universe, filled with an idealized fluid, which at any given time has the same properties throughout the whole of its spatial extent. This procedure has a certain heuristic justification on account of the greater mathematical simplicity of homogeneous as compared with non-homogeneous models, and has a measure of observational justification on account of the approximate uniformity in the large scale distribution of extra-galactic nebulae
(...)
Nevertheless, it is evident that some preponderating tendency for inhomogeneities to disappear with time would have to be demonstrated, before such models could be used with confidence to obtain extrapolated conclusions as to the behavior of the universe in very distant regions or over exceedingly long periods of time.
It is the object of the present note to contribute to our knowledge of the effects of inhomogeneity on the theoretical behavior of cosmological models. For the immediate purposes of this investigation we shall confine our attention to very simple models composed of dust particles (nebulae) which exert negligible pressure and which are distributed non-uniformly but nevertheless with spherical symmetry around some particular origin. This will permit us to employ expressions for the line element and its consequences which are equivalent to those recently developed by Lemaître for investigating the formation of nebulae. The result of the investigation will be to emphasize the possible dangers of drawing conclusions as to the actual universe from long-range extrapolations made on the basis of a homogeneous model.
Remarque : la métrique LTB reste cependant un outil utilisé avec succès, en particulier pour décrire l'évolution des vides cosmiques à partir des zones de sous-densité du CMB. Et il s'agit d'une solution exacte des équations de la RG, qui prévoit bien un taux d'expansion variable en fonction de la distance par rapport au centre du domaine spatial à symétrie sphérique considéré - et donc, en particulier, d'un vide cosmique
Bonjour,
ça nécessite de prendre le temps d'étudier cette hypothèse. La non homogénéité est constatée mais j'avoue que ça accroche quand même sur la possibilité d'avoir H variable sachant que des sous-densités dans certaines régions sont sûrement compensées par des sur-densités ailleurs et tout ça dans un univers qui dépasse largement les limites de l'univers observable. J'ai du mal à visualiser.
Mais supposons que ce soit la réponse au problème posé, cela voudrait-il dire qu'en observant dans une direction donnée une SNIa à z=1,5 et dans la direction diamétralement opposée une autre SNIa avec le même z, on aurait affaire à des régions qui ne correspondraient pas au même temps cosmique ? (H différentes ? a(t) différents ?) ??
Bonjour,
L'idée est bien qu'il y a une échelle de distance (ou plutôt de volume) à partir de laquelle la valeur moyenne de H dans toute région de l'espace(*) de volume suffisant sera identique. Rien de choquant à priori. La "surprise" vient plutôt du fait que cette moyenne n'est pas égale au H calculé à partir de l'équation de Friedmann pour une densité de matière homogène à toute échelle. Mais, compte-tenu de la non-linéarité des équations de la RG, ça ne devrait pas être une surprise.La non homogénéité est constatée mais j'avoue que ça accroche quand même sur la possibilité d'avoir H variable sachant que des sous-densités dans certaines régions sont sûrement compensées par des sur-densités ailleurs et tout ça dans un univers qui dépasse largement les limites de l'univers observable. J'ai du mal à visualiser.
(*) domaine compact d'une même hypersurface spatiale à t constant.
Je pense qu'aucun physicien spécialiste de la RG ne conteste le bien-fondé des équations établies par Buchert en 1999 (tu peux lire les deux premiers chapitres de sa publication, environ 6 pages, tu verras que la démarche est facile à suivre). Le débat porte plutôt sur l'ordre de grandeur des termes qui différencient ces équations de celles de Friedmann, et la possibilité qu'ils puissent "simuler" Lambda - mais un Lambda qui serait une fonction du temps cosmique.
La seule publication que j'ai lue où est faite une application numérique, partant d'un espace-temps EdS à grand redshift (FLRW avec sections spatiales plates et Lambda=0) et tenant compte des données d'observation, est celle-ci. Le principe est également assez simple à comprendre. J'ai trouvé ça assez convaincant, mais j'aurais bien aimé avoir l'avis d'un astrophysicien sur la manière dont les données d'observations sont exploitées (§ 2.3).
En revanche je n'ai pas étudié dans le détail le modèle de Wiltshire (timescape cosmology), qui utilise aussi les équations de Buchert; ça m'a eu l'air plus compliqué au premier abord. Mais j'ai vu que ce modèle a donné lieu à plusieurs publications tendant à démontrer qu'il parvient à reproduire les résultats obtenus avec le modèle LambdaCDM, voire mieux pour l'évolution de H aux époques récentes.
A z = 1,5 la distance comobile est de plusieurs Gpc, donc bien assez grande pour que les valeurs de H déduites de la luminosité des deux SN1a soient égales à la valeur moyenne à grande échelle.Mais supposons que ce soit la réponse au problème posé, cela voudrait-il dire qu'en observant dans une direction donnée une SNIa à z=1,5 et dans la direction diamétralement opposée une autre SNIa avec le même z, on aurait affaire à des régions qui ne correspondraient pas au même temps cosmique ? (H différentes ? a(t) différents ?) ??
Et même dès que z > 0,1, soit une distance comobile supérieure à 400 Mpc, donc pour quasiment tout l'échantillon de SN1a utilisé par l'équipe de Riess pour estimer H0 (la partie la plus haute de la "distance ladder". Mais c'est bien pour éviter que l'estimation soit biaisée par des anisotropies à "petite" échelle qu'ils ont sélectionné des SN1a aussi lointaines.
Bonjour,
ça commence mal pour moi, avec le deuxième document, je ne sais même pas ce que veut dire "virialisation" si Yves pouvait résumer en termes simple le principe? Si lambda est nul d'ou vient l'énergie noire?
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Bonjour,
selon la définition du wiktionnaire : "Processus tendant vers un équilibre dynamique d'un système de particules non-collisionnelles dans le cadre de la gravité newtonienne (une galaxie, un autre système stellaire ou un amas de galaxies)."
Il n'y a pas d'"énergie noire", mais des termes supplémentaires qui apparaissent dans les équations analogues à celles de Friedmann quand on fait la moyenne sur un volume spatial comobile des équations locales portant sur les valeurs locales des scalaires concernés (taux d'expansion, courbure spatiale, densité de matière/énergie).Si lambda est nul d'ou vient l'énergie noire?
En effet, compte-tenu de la non-linéarité des équations de la RG, si le volume n'est pas homogène ces équations "moyennées" ne sont pas identiques aux équations établies en appliquant directement la solution de Friedmann aux valeurs moyenne des scalaires sur ce volume (ce qui demande de le considérer comme homogène). On retrouve les équations de Friedmann comme limite de celles de Buchert quand le volume "tend vers l'homogénéité".
Dit autrement, les opérations consistant d'une part à calculer des valeurs moyennes dans un volume spatial comobile, d'autre part à résoudre l'équation d'Einstein, ne commutent pas.
Si j'ai bien compris on a des accélérations locales de l'expansion dues aux différences de densités mais alors globalement l'univers fait quoi s'il n'y a pas de lambda on va vers un bigCrunch?
Il n'y a pas d'"énergie noire", mais des termes supplémentaires qui apparaissent dans les équations analogues à celles de Friedmann quand on fait la moyenne sur un volume spatial comobile des équations locales portant sur les valeurs locales des scalaires concernés (taux d'expansion, courbure spatiale, densité de matière/énergie).
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Si la constante cosmologique est nulle, on retrouve les modèles de Friedmann-Lemaître sans constante cosmologique qui prévalaient il y a 20 ans et dominés par la matière. C'était plus simple. On définit une densité critique (= 3H^2/8.pi. G) . Si l'univers à une densité supérieure à cette densité critique, l'univers a une courbure positive et il est fermé (big crunch possible), si la densité est égale à la densité critique la courbure est nulle (univers plat) et l'expansion est asymptotique (H tend vers O à l'infini) et enfin si la densité est inférieure à la densité critique l'univers est ouvert avec une courbure négative et une expansion infinie.
Merci, je prendrai connaissance de cette publication.La seule publication que j'ai lue où est faite une application numérique, partant d'un espace-temps EdS à grand redshift (FLRW avec sections spatiales plates et Lambda=0) et tenant compte des données d'observation, est celle-ci. Le principe est également assez simple à comprendre. J'ai trouvé ça assez convaincant, mais j'aurais bien aimé avoir l'avis d'un astrophysicien sur la manière dont les données d'observations sont exploitées (§ 2.3).
.
La conséquence des inhomogénéités serait bien une accélération apparente de l'expansion par rapport à un modèle d'espace-temps "sans Lambda" décrit pas une métrique de Friedmann, du moins depuis qu'elles ont commencé à être significatives et jusqu'à l'époque actuelle. C'est ce qui expliquerait que le modèle LambdaCDM est un bon modèle effectif, mais peut-être de moins en moins bon aux époques récentes (cf. l'écart entre les estimations de H0).
Quant au destin de l'univers, je ne me rappelle pas avoir lu quelque-chose à ce sujet, mais :
... seulement si la métrique de Friedmann-Lemaître est la bonne description de la géométrie de l'espace-temps à grande échelle, c'est-à-dire si les termes supplémentaires intervenant dans les équations de Buchert sont négligeables.Si la constante cosmologique est nulle, on retrouve les modèles de Friedmann-Lemaître sans constante cosmologique qui prévalaient il y a 20 ans et dominés par la matière. C'était plus simple. On définit une densité critique (= 3H^2/8.pi. G) . Si l'univers à une densité supérieure à cette densité critique, l'univers a une courbure positive et il est fermé (big crunch possible), si la densité est égale à la densité critique la courbure est nulle (univers plat) et l'expansion est asymptotique (H tend vers O à l'infini) et enfin si la densité est inférieure à la densité critique l'univers est ouvert avec une courbure négative et une expansion infinie.
Ou s'ils le (re)deviennent progressivement à mesure que la fraction du volume de l'univers constituée par les vides cosmiques sera de plus en plus plus importante et celle constituée par les zones de sur-densité de plus en plus faible - ce qui est bien la conséquence de l'accélération de l'expansion, que celle-ci soit due à une "énergie noire" ou à ces termes. Mais alors la densité moyenne de l'univers sera inférieure à la densité critique, et sa courbure spatiale moyenne négative. On tendrait donc vers un modèle d'univers de Friedmann ouvert.
Quoi qu'il en soit, on sait que le modèle de Friedmann-Lemaître le plus simple, sans constante cosmo et de sections spatiales plates (le modèle d'Einstein-de Sitter), ne correspond pas aux observations - il conduit à une valeur de H0 d'environ 47 km/s/Mpc dans un univers âgé de 13,8 milliards d'années; ou inversement, si H0=70 km/s/Mpc, l'âge de l'univers ne serait que de 9,3 milliards d'années. Par ailleurs les observations du CMB sont compatibles avec un espace plat (à l'époque du CMB) aux incertitudes de mesure près, et même s'il y avait une courbure négative, elle serait trop faible expliquer le taux d'expansion actuel.
Il n'y a pas trente-six solutions :
Soit (1) le modèle de Friedmann-Lemaître est le bon, mais avec une valeur strictement positive de Lambda (mais variable - ce qui demanderait à être expliqué par de la "nouvelle physique"; remarque, on en a déjà besoin pour expliquer l'énergie noire et la matière noire).
Soit (2) il ne constitue plus une approximation suffisamment précise pour décrire notre univers fortement inhomogène aux échelles inférieures à quelques centaines de Mpc aux époques récentes, mais on peut quand-même établir un modèle cosmologique basé sur la RG pour tenir compte de ces inhomogénéités sans faire appel à de la nouvelle physique.
Soit (3) c'est la RG qui est fausse, ou incomplète - et on aurait donc aussi besoin d'une nouvelle physique.
Si on s'en tient au modèle actuel, H va atteindre asymptotiquement une valeur constante (si la constante cosmo Λ est effectivement constante) d'où une croissance exponentielle du facteur d'échelle.
a(t)/a(0) = eHt = e(√Lamda.t/3)
Avec a(0) la valeur actuelle du facteur d'échelle et t le temps (on se dirige vers l'univers vide de De Sitter, la constante cosmologique devenant le composant essentiel de l'univers).
Les observateurs du futur (lointain) verront disparaître de leur horizon les galaxies non liées à la voie lactée.
Encore un exemple où le grain de sable (ici l'expansion accélérée) remet en question le modèle.Quoi qu'il en soit, on sait que le modèle de Friedmann-Lemaître le plus simple, sans constante cosmo et de sections spatiales plates (le modèle d'Einstein-de Sitter), ne correspond pas aux observations -
Avec 95% "d'obscur" dans le LCDM, ça nous promet encore de belles années de découvertes passionnantes !Il n'y a pas trente-six solutions :
Soit (1) le modèle de Friedmann-Lemaître est le bon, mais avec une valeur strictement positive de Lambda (mais variable - ce qui demanderait à être expliqué par de la "nouvelle physique"; remarque, on en a déjà besoin pour expliquer l'énergie noire et la matière noire).
Soit (2) il ne constitue plus une approximation suffisamment précise pour décrire notre univers fortement inhomogène aux échelles inférieures à quelques centaines de Mpc aux époques récentes, mais on peut quand-même établir un modèle cosmologique basé sur la RG pour tenir compte de ces inhomogénéités sans faire appel à de la nouvelle physique.
Soit (3) c'est la RG qui est fausse, ou incomplète - et on aurait donc aussi besoin d'une nouvelle physique.
Je sais. Je voulais dire que je n'avais rien lu à ce sujet dans le cadre des modèles de cosmologie inhomogène.Si on s'en tient au modèle actuel, H va atteindre asymptotiquement une valeur constante (si la constante cosmo Λ est effectivement constante) d'où une croissance exponentielle du facteur d'échelle.
a(t)/a(0) = eHt = e(√Lamda.t/3)
Avec a(0) la valeur actuelle du facteur d'échelle et t le temps (on se dirige vers l'univers vide de De Sitter, la constante cosmologique devenant le composant essentiel de l'univers).
Mais a priori ceux-ci doivent aussi conduire à un univers "ouvert", mais peut-être (si c'est le terme de courbure négative qui devient dominant) avec un taux d'expansion asymptotiquement en 1/a(t), donc une expansion infinie mais plus lente que dans le modèle LambdaCDM.
Moi ce que je trouve assez scandaleux c'est que ce modèle lambdaCDM ait été adopté sans aucune critique comme la bible,attention je ne dis pas qu'il est faux, je dis qu'il a été adopté avec 95 % d'incertitudes. Certes je ne nie pas que l'existence de matière noire soit probable car c'est ce qui explique le mieux il me semble tous les phénomènes constatés a cet égard MOND me semble complètement dépassé (il y a un argument récent très fort passé inaperçu) , mais quand même quand on n'a pas de preuves on n’échafaude pas une certitude au moins on doute. Donc si je résume dire aujourd'hui que l'expansion de l'Univers accélère globalement est une erreur.
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
+1 la cosmo est une «croyance» (big bang, etirement des photons, matiere et energie noire, univers plat newtonnien... j’en passe. Autant de points qu’on gobe... ou pas)
Trollus vulgaris
On ne va pas commencer à confondre une religion avec la méthode scientifique (tu y vas un peu fort avec "croyance" même avec les guillemets). Il y a un large débat sur le modèle retenu pour l'instant. Il suffit de voir le nombre de publications. Les exceptions observationnelles qui pointent leur nez depuis longtemps interrogent et les spécialistes du domaine ne restent pas les bras croisés. Tous ceux qui émettent des critiques et s'ils maîtrisent le sujet ont toujours la possibilité de publier dans une revue à comité de lecture. C'est ainsi.
Une croyance, je ne sais pas, mais un point de vue (mathématiquement cohérent certes) intégré à une conception physique, surement.
Par exemple et pour illustrer simplement, pour un mathématicien, lorsqu'il trace une droite (infiniment "fine"), ça ne le gène pas de calculer une aire à partir de ces "parcours" (si on se place maintenant dans un cadre plus physique).
"Normalement", ou physiquement parlant si on veut, pour parcourir une aire à la façon du mathématicien, il faudrait tracer une ligne de longueur... infinie.
Pourtant, pour calculer l'aire, on multiplie 2 distances, ou un volume, on multiplie 3 distances, et c'est aussi ce que font les physiciens... parce-que "ca marche".... du moins pour des aires ou des volumes de la vie commune.
Mais, si on considère une limite à l'épaisseur d'un trait, ce qu'on ne fait pas en Relativité si je ne m'abuse (puisque l'espace-temps est dit continu), on ne peut plus appliquer "bêtement" les calculs, comme si on avait affaire à des objets physiques de la vie commune.
On ne peut donc pas s'attendre, à l'aide d'un concept purement mathématique, à rendre compte de tous les phénomènes physiques, et si le modèle LambdaCDM présente des imperfections, c'est peut-être aussi que la RG est y trop représentée ?
https://www.pourlascience.fr/sr/edit...temps-9654.phpEnvoyé par PourLaScienceLa véritable révolution est venue en 1915 avec la théorie de la relativité générale.
L'espace-temps y obtenait le statut d'acteur physique à part entière : la déformation de la géométrie de l'espace-temps traduit ce que nous appelons la gravitation, déformation qui dépend elle-même de la matière et de l'énergie présentes.
En physique quantique, en revanche, l'espace-temps continue de jouer le rôle d'un réceptacle passif.
C'est l'un des symptômes de l'incompatibilité entre la physique quantique et la relativité générale – et de l'inexistence, à ce jour, d'une théorie quantique de la gravitation. Mais les théoriciens ne sont pas à court d'idées.
Tout un projet international consiste ainsi à explorer l'hypothèse que l'espace-temps émerge de l'intrication quantique de minuscules entités fondamentales. Et deux éminents physiciens ont découvert un lien étonnant entre relativité générale et théorie quantique, en étudiant l'intrication quantique de deux trous noirs.
Un premier aperçu sur l'intimité quantique de l'espace-temps ? Il serait... temps, la science attend cela depuis près d'un siècle.
Le problème ne porte pas sur les «détails» qui font évoluer un modèle, faussement conceptuel, au fil des observations. C’est plus profond... je n’argumente pas car je suis hors charte, je déplore le temps perdu a faire survivre un modèle abscons.
Trollus vulgaris
Tu crois que les milliers d'Astrophysiciens qui planchent sur LambdaCDM font fausse route ? C'est juste un question car pas qualifié.
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
S’ils étaient des millions ça leur donnerait raison ? Le modèle ne marche pas (95% d’inconnues) je n’apprend rien a personne... et oui je reste convaincu que la réponse est plus relativiste (4D observée) que notre toy newtonnien (3D+t universels). Bref, perso et hors charte donc oublie...
Trollus vulgaris
@Mailou:
ref post #107 et #109:
substance:
"moi j'dis juste que c'est bidon, ( et même faux ), mais comme c'est hors charte, faites comme si j'avais rien dit...".
heuuu ! dans ces cas là , on se tait, non ?
Attention je ne défend rien, je n'en ai pas la capacité , je suis juste curieux. Je m'étonne juste qu'un modèle basé sur des postulats non vérifiés (homogénéité et isotropie) soit la bible.
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
lol
Trollus vulgaris
Ce n'est pas parce que les natures de l'énergie noire et de la matière noire sont inconnues que le modèle est faux. Il est d'ailleurs faux de dire qu'il ne marche pas.
Il ne reste plus qu'à le prouver...sachant que la base du modèle est déjà la RG (Friedmann-Lemaître...).et oui je reste convaincu que la réponse est plus relativiste (4D observée) que notre toy newtonnien (3D+t universels). Bref, perso et hors charte donc oublie...
On peut se rendre compte que depuis pas mal de temps, de nombreuses hypothèses étaient déjà sur le tapis. Voir ici : http://www.genci.fr/sites/default/fi...S_JM_ALIMI.pdf (pages 6-10)
Le site dédié au satellite planck n'est pas en reste en évoquant les extensions envisageables du modèle (http://public.planck.fr/outils/astro...le-concordance). (Voir niveau Expert).
J’ai pas dit qu’il ne marchait pas (il ne peut que marcher...)
Totalement hors charte, mais resout celle là : le big bang n’a pas lieu partout en même temps (puisque l’espace n’existe pas), il n’a lieu nulle part, c’est une date. Juste une piste de reflexion pas du tout anodine. Dire ça c’est déjà hors charte, ce fil est une pente savonneuse à lui seul je ferais mieux de ne pas trainer ici... bye.Il ne reste plus qu'à le prouver...sachant que la base du modèle est déjà la RG (Friedmann-Lemaître...).
Trollus vulgaris
Ne le relance surtout pas sur le sujet. C'est la période de l'année où il a besoin de sa petite piqûre, après il se calme de nouveau pendant quelques mois.Envoyé par LansbergMal lu ton message #109 : "Le modèle ne marche pas "
Trollus vulgaris