Courbure, Friedmann et structures
Répondre à la discussion
Affichage des résultats 1 à 29 sur 29

Courbure, Friedmann et structures



  1. #1
    physeb2

    Courbure, Friedmann et structures


    ------

    J'ouvre ce fil afin de pouvoir continuer une discussion très intéressante avec Yves95210 sur le terme de courbure qui intervient dans les équations de Friedmann ainsi que dans la métrique.

    Durant mes études, le terme de courbure m'était systématiquement présenté dans sa version réduite, ce qui est très utile au moment d'écrire la métrique (k=-1,0,+1). Cependant, cela a introduit une grande incompréhension chez moi au moment de traiter ce même terme de courbure dans l'equation de Friedmann.

    Durant cette discussion plusieurs points sont apparus auzquels je commence a répondre ici et qui vont donc donner la base pour continuer notre discussion.

    Et pour l'appliquer à l'intérieur d'une sphère sans se soucier de ce qui se passe à l'extérieur il faut quand-même faire des hypothèses simplificatrices (en gros, supposer que la symétrie sphérique se prolonge suffisamment loin au-delà de la sphère concernée). Par exemple l'approximation par FLRW marche bien pour la partie centrale des vides cosmiques. Pour les grandes zones de sur-densité (dont certaines parties ont commencé à se contracter, ou ont même fini de le faire, produisant les amas de galaxies) on ne peut utiliser FLRW que pour décrire leur géométrie moyenne, comme tu le dis ensuite; mais effectivement, ça peut suffire en cosmologie (même si il y a encore des débats ouverts sur le sujet)
    Tout a fait d'accord, pas mal de gens travaillent sur les conséquences d'utiliser des métriques plus complexes qui peuvent prendre en compte des inhomogénéités locales (LTB en premier lieu). Dans l'absolu c'est une horreur a mettre en place pour beaucoup de choses, mais pour comprendre des observations qui peuvent être affectées par des effets locaux hinomogènes et anisotropiques ça peut être très important. Je pense en particulier a la crise de H0 entre les observations directes et celles qui viennent du CMB et des BAO.

    on ne va pas refaire l'histoire, mais Lemaître avait décrit cette solution indépendamment de Tolman (et les deux bien avant que Bondi revisite leurs travaux). Et la métrique est d'ailleurs plutôt connue sous le nom LTB, du moins c'est sous ce nom que je l'ai rencontrée le plus souvent.
    LTB est effectivement le nom correcte de la métrique. Je pense qu'inconsciemment j'ai tendance a retirer Lemaitre vu qu'il est de toutes les métriques en cosmologie

    Tu as dû faire une coquille, puisque (en considérant que est la densité d'énergie totale)
    il n'y a pas de coquille dans l'équation II.30 du document sur la formation des amas (voir fichier joint que je remets ici), mais bien une erreur (plus qu'une coquille) dans mon message quand j'ai écris que:
    ce qui est incorrecte en effet.
    Je voulais me référer au terme général de la courbure comme il est écrit dans Gunn & Gott 1972 (equation 7 du papier https://articles.adsabs.harvard.edu/...pJ...176....1G), en explicitant maladroitement que le terme de droite est la densité d'énergie liée a la courbure on obtient et de l'avoir écrit ainsi. C'était une erreur de l'écrire comme je l'ai fait.
    Je dois également préciser que dans le cadre du papier, la densité d'énergie est complètement dominé par la matière, raison pour laquelle le terme réfère a la matiere et comme tu le mentionnais dans ta réponse il est équivalent a

    Je pense qu'on peut aussi continuer la discussion sur l'implicaion sur la formation des structures. Comme je le mentionnait, le fait d'appliquer les équations de Friedmann (et donc aussi la metrique FLRW) a des spheres ou ellipses de tailles variable est à la base de la théorie de la formation des structures. Les zones avec une densité plus grande que la densité critique (donc dans le cas d'un univers plat, toutes les sur-densités) ont un terme de courbure positif qui décroit avec le carré du facteur d'échelle tandisque que le terme de densité de la matière décroit comme le cube du facteur d'échelle. Ainsi, le terme de courbure finira par dominer et inverser l'évolution du facteur d'échelle locale (Turn-around) qui collapsera jusqu'a la virialisation du halo (et le facteur d'échelle disparait alors, il est tombé a 0). C'est dailleurs pour cela qu'il n'y a pas d'expansion à l'intérieur des structures collapsées et donc pas dans les galaxies ou les amas de galaxies. Dans un cas très particulier, sans vitesses initiales des particules, tu peut aussi former un trou noir au lieu d'arriver a la virialisation (formation hypothétique des trous noirs primordiaux).

    Voila, j'espere ne pas avoir oublié trop de choses pour initier de nouveau cette discussion.

    -----
    Images attachées Images attachées

  2. #2
    yves95210

    Re : Courbure, Friedmann et structures

    Citation Envoyé par physeb2 Voir le message
    Voila, j'espere ne pas avoir oublié trop de choses pour initier de nouveau cette discussion.
    Tu n'as rien oublié. Mais le problème, c'est que je suis d'accord avec tout ce que tu dis (maintenant que notre malentendu a été éclairci), donc je ne vois pas de quoi on va discuter
    Je n'ai pas le temps ce soir, mais je reviendrai peut-être sur certains points demain matin.

  3. #3
    yves95210

    Re : Courbure, Friedmann et structures

    Bonjour,

    Citation Envoyé par physeb2 Voir le message
    Tout a fait d'accord, pas mal de gens travaillent sur les conséquences d'utiliser des métriques plus complexes qui peuvent prendre en compte des inhomogénéités locales (LTB en premier lieu). Dans l'absolu c'est une horreur a mettre en place pour beaucoup de choses, mais pour comprendre des observations qui peuvent être affectées par des effets locaux inhomogènes et anisotropiques ça peut être très important. Je pense en particulier a la crise de H0 entre les observations directes et celles qui viennent du CMB et des BAO.
    Effectivement avec LTB on peut espérer arriver à construire des modèles plus réalistes qu'avec FLRW appliquée à chaque zone de sous- ou surdensité avec une densité uniforme dans chaque zone (en fait sa densité moyenne) mais différente d'une zone à l'autre, ce qui empêche de "recoller" les zones entre elles (ou plutôt avec un "background" constitué d'un univers moyen de densité égale à la densité critique et évoluant selon l'équation de Friedmann, puisqu'on ne peut pas espérer couvrir tout l'espace avec un assemblage de zones sphériques). Du coup, en se limitant à FLRW pour décrire la géométrie moyenne de zones sphériques idéalisées on se retrouve avec un no man's land (ou plutôt un "no metric's land") qui peut être bien plus étendu que la zone considérée.

    J'ai essayé de faire l'exercice avec LTB (je suis conscient qu'il y a de nombreuses publications qui traitent du sujet; mais pour bien comprendre j'ai en général besoin de faire les calculs moi-même), ça pose des problèmes aussi mais différents. Au moins ça permet de simuler la formation de vides cosmiques réalistes (par rapport à ceux observés), incluant une zone de surdensité à leur périphérie, que l'utilisation de FLRW pour modéliser le vide ne permet évidemment pas de reproduire.
    Pour les grandes zones de surdensité initiale (et donc de courbure positive) ça permet de simuler leur évolution jusqu'à la phase de contraction, mais si on prolonge la simulation sans y introduire d'autres ingrédients, on arrive assez vite à la formation d'un trou noir, comme tu l'as toi-même indiqué plus loin (et la phase de contraction se poursuivant, tout finit par tomber dans ce trou noir...). J'ai donc tenu compte de la virialisation, de manière très basique, en calculant la date à laquelle chaque coquille de matière va être virialisée (et se détacher du flux comobile), et en considérant qu'à partir de cette date son rayon n'évolue plus (et donc pas non plus la masse contenue à l'intérieur de la coquille), de manière à pouvoir continuer d'utiliser la métrique LTB à l'extérieur.
    Tout ça n'est sans-doute pas très réaliste (quelle que soit la vitesse radiale des particules de mon modèle au moment de la virialisation, cette vitesse passe instantanément à zéro...) et de toute façon je n'ai pas les moyens de confronter le modèle à des observations, mais j'avais vérifié que ça donne des ordres de grandeur pas idiots : en partant d'anisotropies de la densité d'énergie d'amplitude et de rayon compatibles avec les observations du CMB, j'arrivais à l'époque actuelle à un rayon d'environ 15 millions d'a-l. pour la zone virialisée (compatible avec la taille des grands amas de galaxie) et un rayon d'environ 120 millions d'a-l. pour la partie de la zone de surdensité initiale qui est encore en contraction ou qui n'a pas commencé à se contracter (compatible avec la taille des superamas).

    Mais au-delà de la modélisation de zones sphériques de sous- et surdensité avec LTB, le problème qui se pose est celui du background dans lequel il faut plonger ces zones pour obtenir un (toy-)modèle complet, autrement dit du choix du modèle d'espace-temps avec lequel on va représenter l'univers "moyen" à toute époque. J'y reviendrai plus tard, mon pavé est déjà assez long...


    l'équation II.30 du document sur la formation des amas (voir fichier joint que je remets ici), (...)
    Je dois également préciser que dans le cadre du papier, la densité d'énergie est complètement dominé par la matière, raison pour laquelle le terme réfère a la matiere et comme tu le mentionnais dans ta réponse il est équivalent a
    J'avais bien compris : durant la période de formation des structures la densité d'énergie de la matière était (1+z)3 fois plus élevée qu'aujourd'hui, alors que le terme de de l'équation de Friedmann associé à la constante cosmologique (ou densité d'énergie du vide si on veut) a une valeur constante. Les deux termes étant d'ordre de grandeur comparable aujourd'hui (0,3/0,7), avant z=5 ΩΛ représente moins de 1% de la densité totale d'énergie.

    Je pense qu'on peut aussi continuer la discussion sur l'implicaion sur la formation des structures. Comme je le mentionnait, le fait d'appliquer les équations de Friedmann (et donc aussi la metrique FLRW) a des spheres ou ellipses de tailles variable est à la base de la théorie de la formation des structures. Les zones avec une densité plus grande que la densité critique (donc dans le cas d'un univers plat, toutes les sur-densités) ont un terme de courbure positif qui décroit avec le carré du facteur d'échelle tandis que que le terme de densité de la matière décroit comme le cube du facteur d'échelle. Ainsi, le terme de courbure finira par dominer et inverser l'évolution du facteur d'échelle locale (Turn-around) qui collapsera jusqu'a la virialisation du halo (et le facteur d'échelle disparait alors, il est tombé a 0). C'est dailleurs pour cela qu'il n'y a pas d'expansion à l'intérieur des structures collapsées et donc pas dans les galaxies ou les amas de galaxies. Dans un cas très particulier, sans vitesses initiales des particules, tu peut aussi former un trou noir au lieu d'arriver a la virialisation (formation hypothétique des trous noirs primordiaux).
    C'est ce que j'ai fait plus haut (continuer la discussion sur l'implication sur la formation des structures), sauf que je suis déjà un peu sorti du sujet de ton fil en parlant d'un modèle basé sur la métrique LTB....
    Dernière modification par yves95210 ; 19/10/2022 à 09h26.

  4. #4
    yves95210

    Re : Courbure, Friedmann et structures

    Je voulais aussi aborder une autre question, à laquelle tu sauras peut-être répondre plus simplement.
    Les profils de densité des vides cosmiques observés aujourd'hui (z proche de 0) font apparaître des contrastes de densité allant de -0,5 jusqu'à près de -0,95 entre la densité de la partie centrale des vides et la densité moyenne de l'univers, les vides les plus grands (a priori ceux qui sont issus des plus grandes anisotropies du CMB et dont le rayon est aujourd'hui de l'ordre de 100 Mpc) étant les moins creusés :

    Nom : image_2022-10-19_104928096.png
Affichages : 255
Taille : 52,6 Ko
    (source : Universal Density Profile for Cosmic Voids, Hamaus 2014, que j'ai vu citée comme référence sur le sujet dans d'autres publications)

    Autrement dit, la densité de la partie centrale des vides va de la moitié de la densité moyenne (pour les vides les plus grands) à moins d'un dixième de cette densité. Par conséquent le rapport entre le facteur d'échelle de la partie centrale des vides et celui de l'univers "moyen" va de 21/3≈1,25 pour les vides les plus grands à près de 201/3≈2,7 pour les plus petits. On devrait donc observer un blueshift de 0,25 dans les plus grands vides (dans lesquels on observe quand-même quelques galaxies), allant jusqu'à plus de 3 dans les plus petits (où il n'y a peut-être que du gaz). Sais-tu si c'est le cas ?

  5. A voir en vidéo sur Futura
  6. #5
    yves95210

    Re : Courbure, Friedmann et structures

    petite correction :

    Citation Envoyé par yves95210 Voir le message
    Par conséquent le rapport entre le facteur d'échelle de la partie centrale des vides et celui de l'univers "moyen" va de 21/3≈1,25 pour les vides les plus grands à près de 201/3≈2,7 pour les plus petits. On devrait donc observer un blueshift de 0,25 dans les plus grands vides (dans lesquels on observe quand-même quelques galaxies), allant jusqu'à plus de 1,5 dans les plus petits (où il n'y a peut-être que du gaz). Sais-tu si c'est le cas ?
    et un doute : en fait les galaxies présentes dans les vides cosmiques doivent correspondre à des zones de surdensité relative par rapport à la densité de ces vides, puisqu'il a bien fallu que les zones de contenant ces galaxies aient une densité supérieure à la densité critique pour qu'elles commencent à se contracter. Donc le calcul ci-dessus ne s'y appliquerait pas ?
    Dernière modification par yves95210 ; 19/10/2022 à 12h47.

  7. #6
    yves95210

    Re : Courbure, Friedmann et structures

    PS : j'en reste là pour le moment, pour te laisser le temps de réagir à mes messages précédents (je me doute que tu as moins de temps disponible que moi). Mais j'ai encore d'autres sujets de préoccupation, par exemple celui-ci :

    au-delà de la modélisation de zones sphériques de sous- et surdensité avec LTB, le problème qui se pose est celui du background dans lequel il faut plonger ces zones pour obtenir un (toy-)modèle complet, autrement dit du choix du modèle d'espace-temps avec lequel on va représenter l'univers "moyen" à toute époque.

  8. #7
    physeb2

    Re : Courbure, Friedmann et structures

    Je vais prendre du temps pour répondre a tout mais je vais commencer par le premier point.

    Pour les grandes zones de surdensité initiale (et donc de courbure positive) ça permet de simuler leur évolution jusqu'à la phase de contraction, mais si on prolonge la simulation sans y introduire d'autres ingrédients, on arrive assez vite à la formation d'un trou noir, comme tu l'as toi-même indiqué plus loin (et la phase de contraction se poursuivant, tout finit par tomber dans ce trou noir...). J'ai donc tenu compte de la virialisation, de manière très basique, en calculant la date à laquelle chaque coquille de matière va être virialisée (et se détacher du flux comobile), et en considérant qu'à partir de cette date son rayon n'évolue plus (et donc pas non plus la masse contenue à l'intérieur de la coquille), de manière à pouvoir continuer d'utiliser la métrique LTB à l'extérieur.
    En fait c'est aussi ce qu'on fait dans le cas classique de la formation des structures en appliquant FLRW. Il n'y a pas moyen d'avoir une solution analytique qui passe de "shell crossing" (tes spheres concentriques qui se croisent) et donc tu peux pas avoir la virialization, il faut la mettre a la main. Cette virialization se comprend bien par le fait que les particules initiales ont un vitesse non nulle. Ainsi elles ne tombent pas en ligne droite vers le centre. Mais si ce processus arrive a se réaliser juste après l'inflation, tu peux imaginer que le collapse (avant d'avoir des vitesses par thermalisation) provoque l'apparition de trous noirs primordiaux.

    Mais au-delà de la modélisation de zones sphériques de sous- et surdensité avec LTB, le problème qui se pose est celui du background dans lequel il faut plonger ces zones pour obtenir un (toy-)modèle complet, autrement dit du choix du modèle d'espace-temps avec lequel on va représenter l'univers "moyen" à toute époque. J'y reviendrai plus tard, mon pavé est déjà assez long...
    Tu peux pas assumer une metrique FLRW pour le background? On mesure que l'homogénéité intervien vers 100 Mpc, donc je pense que ça reste une très bonne approximation non? D'ailleurs, un gros problème si tu prends une métrique LTB pour le background, ça veut dire que deux zones similaires surdenses ne vont pas collapser au même moment a cause d'un background différent non? Ça devient inextricable pour évaluer la fonction de masse des halos que tu formes non?

  9. #8
    physeb2

    Re : Courbure, Friedmann et structures

    Autrement dit, la densité de la partie centrale des vides va de la moitié de la densité moyenne (pour les vides les plus grands) à moins d'un dixième de cette densité. Par conséquent le rapport entre le facteur d'échelle de la partie centrale des vides et celui de l'univers "moyen" va de 21/3≈1,25 pour les vides les plus grands à près de 201/3≈2,7 pour les plus petits. On devrait donc observer un blueshift de 0,25 dans les plus grands vides (dans lesquels on observe quand-même quelques galaxies), allant jusqu'à plus de 3 dans les plus petits (où il n'y a peut-être que du gaz). Sais-tu si c'est le cas ?
    Il y a bien un effet de blueshift gravitationnel pour les galaxies dans les vides. Cependant la valeur de 3 me semble excessivement grande. Je viens de jeter un oeil sur un article que j'avais zieuté (https://arxiv.org/pdf/1709.05756.pdf) et vers l'equation 56 il me semble que l'ordre de grandeur est bien moindre, plutôt de l'ordre de 10-6. Comment évalues-tu un redshift de 3?

  10. #9
    yves95210

    Re : Courbure, Friedmann et structures

    Citation Envoyé par physeb2 Voir le message
    Il y a bien un effet de blueshift gravitationnel pour les galaxies dans les vides. Cependant la valeur de 3 me semble excessivement grande. Je viens de jeter un oeil sur un article que j'avais zieuté (https://arxiv.org/pdf/1709.05756.pdf) et vers l'equation 56 il me semble que l'ordre de grandeur est bien moindre, plutôt de l'ordre de 10-6. Comment évalues-tu un redshift de 3?
    C'était une erreur (j'ai corrigé dans le message suivant, mais tu ne l'as peut-être pas vu). J'ai bêtement fait z = a0/a +1 au lieu de -1...

  11. #10
    yves95210

    Re : Courbure, Friedmann et structures

    Citation Envoyé par physeb2 Voir le message
    Tu peux pas assumer une metrique FLRW pour le background? On mesure que l'homogénéité intervien vers 100 Mpc, donc je pense que ça reste une très bonne approximation non?
    Si bien sûr, c'est ce que j'ai fait, en imposant comme condition aux limites pour les zones LTB que leur courbure tende vers 0 et leur taux d'expansion local vers celui d'un FLRW de courbure nulle, quand leur coordonnée radiale tend vers une valeur rD prédéfinie (et constante). Et ça donne des résultats à peu près réalistes pour les vides cosmiques et pour les grandes structures (jusqu'à virialisation).

    Mais ça revient à imposer a priori que l'univers moyen évolue comme le modèle FLRW avec k=0 indépendamment de l'évolution des zones sous- et surdenses qu'il contient, alors que si on considère un volume comobile de taille supérieure à l'échelle d'homogénéité, les vides cosmiques en représentent en réalité (dans notre univers) une fraction de plus en plus importante, ce qui pourrait avoir un impact sur la courbure et la densité moyennes à grande échelle.
    C'est justement ça que j'essayais de voir en utilisant les équations de Buchert (cf. mon message sur le sujet dans l'autre discussion). Mais en imposant a priori que l'univers moyen évolue suivant le modèle FLRW et conserve donc sa courbure nulle, ce n'est évidemment pas possible...

    D'ailleurs, un gros problème si tu prends une métrique LTB pour le background, ça veut dire que deux zones similaires surdenses ne vont pas collapser au même moment a cause d'un background différent non? Ça devient inextricable pour évaluer la fonction de masse des halos que tu formes non?
    J'ai quand-même essayé de couvrir tout l'espace avec la métrique LTB, mais dans une configuration bien particulière, pas très réaliste (mais ce n'est qu'un "toy-model"...) : j'ai considéré des cubes initialement de densité quasi-homogène et courbure quasi-nulle, avec une zone sphérique LTB à chaque sommet, identiques entre elles, et présentant une (petite) courbure positive dans leur partie centrale et négative au-delà (sans limite de distance radiale); ces zones se recouvrent donc au centre du cube (et sur ses arêtes) mais avec des densités et courbures qui vont être assez homogènes pour que "ça ressemble" localement à un FLRW avec courbure négative. En considérant que l'univers est entièrement constitué de tels cubes (c'est pas isotrope même à grande échelle mais dans ce toy-model on s'en fiche), sa densité et sa courbure moyennes sont égales à celles de chacun des cubes.

    L'idée n'était évidemment pas de modéliser l'évolution des structures de manière réaliste, mais juste d'avoir un modèle dans lequel je pourrais calculer les paramètres locaux des équations de Buchert et voir à quelles valeurs moyennes cela conduit pour le taux d'expansion, la courbure spatiale et la densité (pour pouvoir les comparer avec celles auxquelles conduit un modèle FLRW de courbure spatiale nulle).

    Je ne sais pas si tu connais bien la métrique LTB, donc je commence par résumer ce qu'il faut en savoir pour fixer les notations et pour en parler par la suite :
    La métrique LTB peut s'écrire

    et l'équation d'Einstein conduit alors aux équations suivantes :


    avec M(r) la masse (constante puisque les particules sont comobiles) contenue à l'intérieur de la sphère de rayon r, et c2E(r) l'énergie totale d'une particule de masse unité et de coord radiale r.
    Elle conduit à des solutions différentes suivant le signe de E, de forme analogue à celles de Friedmann pour k=-1, 0 ou 1, à la différence près qu'elles dépendent de r, et qu'elles comportent un degré de liberté supplémentaire, tb(r). Il y a donc au total trois paramètres fonction de r, qu'il faut choisir pour obtenir une solution particulière.

    Pour E>0, qui correspond généralement mais pas toujours(*) à une courbure négative, on obtient



    et pour E<0,



    où le paramètre est une fonction de t et de r (alors que dans la solution de Friedmann il n'est fonction que de t).

    (*) En effet le scalaire de Ricci 3D est

    et pour une valeur de r et donc de E données, son signe peut ne pas être constant.

    Dans dans le modèle dont je parlais plus haut, j'ai choisi tb=0 pour tout r (autrement dit, le big bang se produit partout au même instant), une fonction M en r3 correspondant à une densité initialement homogène, et une fonction continue et dérivable E avec E(r)<0 dans la partie centrale (avec E(r) ∝ r2 au voisinage de r=0) et >0 au-delà, qui ressemble à ça
    Pièce jointe 468525

  12. #11
    yves95210

    Re : Courbure, Friedmann et structures

    Citation Envoyé par yves95210 Voir le message
    Dans dans le modèle dont je parlais plus haut, j'ai choisi tb=0 pour tout r (autrement dit, le big bang se produit partout au même instant), une fonction M en r3 correspondant à une densité initialement homogène, et une fonction continue et dérivable E avec E(r)<0 dans la partie centrale (avec E(r) ∝ r2 au voisinage de r=0) et >0 au-delà,
    Aussi simpliste que soit ce modèle, il m'a quand-même permis d'obtenir quelques résultats (que personne n'a vérifiés, mais bon...).

    Pour le volume compris à l'intérieur d'une sphère de coordonnée radiale r assez grande (environ 1,5 fois la valeur de r où E change de signe), à t=12 milliards d'années ça donne une densité d'énergie et une densité de courbure (négative) moyennes dans un rapport ~0,3/0,7, et un taux d'expansion moyen, calculé selon l'équation de Buchert, proche à moins de 1% du taux d'expansion calculé selon l'équation de Friedmann(*) à partir de ces densités moyennes avec Lambda=0 ; taux d'expansion qui est évidemment le même que celui résultant de l'équation de Friedmann avec Lambda non nul, k=0, et le même rapport 0,3/0,7 entre densité d'énergie de la matière et densité d'énergie de Lambda.

    (*) Mais attention : il s'agit d'une équation de Friedmann "effective" à une époque donnée, le modèle n'évolue pas comme un espace-temps de Friedmann.

    Autrement dit, le terme de backreaction intervient pour moins de 1% dans l'équation de Buchert dans ce modèle lorsque le domaine choisi est le cube (l'"échelle d'homogénéité"). Mais ce n'est pas le cas si je limite le domaine sur lequel je calcule ces valeurs moyennes, par exemple à r=1, l'écart entre les taux d'expansion résultant de l'équation de Buchert et de celle de Friedmann est de quelques %.

    A cette date (t=12x109 ans), le rayon (en distance propre) de la partie virialisée est d'environ 16 millions d'a-l et la coquille comprise entre ~16 et ~32 millions d'a-l est en contraction alors que le reste de la zone de surdensité est encore en expansion; la courbure spatiale devient négative à ~66 millions d'a-l, correspondant à r=0,74 alors qu'initialement elle était positive dans toute la zone où E(r)<0, soit jusqu'à r=0,9 (c'est une des "curiosités" du modèle). La zone de sous-densité a évidemment subi une expansion plus importante, par exemple le rayon propre de la sphère de coord radiale r=1,5 est ~260 millions d'a-l.

    NB : ça fait 3 ans que j'avais fait ces calculs (dans un simple tableur, avec deux macro pour calculer à partir de t et r dans les cas E<0 et E>0), avant de tout laisser tomber. Et comme je n'avais rien écrit à côté, j'ai eu un peu du mal à m'y retrouver...
    Je constate que, à t=380000 ans le contraste de densité entre la partie centrale (sur-dense) de mes sphères et leur partie périphérique (sous-dense) est proche de 1%, donc plus que ce qu'autorisent les observations du CMB.

  13. #12
    yves95210

    Re : Courbure, Friedmann et structures

    Erratum :

    Citation Envoyé par yves95210 Voir le message
    la densité de la partie centrale des vides va de la moitié de la densité moyenne (pour les vides les plus grands) à moins d'un dixième de cette densité. Par conséquent le rapport entre le facteur d'échelle de la partie centrale des vides et celui de l'univers "moyen" va de 21/3≈1,25 pour les vides les plus grands à près de 201/3≈2,7 pour les plus petits. On devrait donc observer un blueshift de 0,25 dans les plus grands vides (dans lesquels on observe quand-même quelques galaxies), allant jusqu'à plus de 3 dans les plus petits (où il n'y a peut-être que du gaz). Sais-tu si c'est le cas ?
    J'ai dit une grosse bêtise (et j'en ai redit une en corrigeant ce message) :
    le blueshift qu'on devrait observer est z = aréception/aémission - 1, et vaut -0,2 dans le premier cas et -0,67 dans le deuxième.
    (je devrais toujours écrire les équations, même quand ça paraît assez simple pour faire le calcul de tête, car ça m'arrive souvent de faire ce genre de boulette )

    Mais c'est sans tenir compte de la remarque suivante : les galaxies présentes dans les vides cosmiques doivent correspondre à des zones de surdensité relative par rapport à la densité de ces vides, puisqu'il a bien fallu que les zones contenant ces galaxies aient une densité supérieure à la densité critique pour qu'elles commencent à se contracter. Donc le calcul ci-dessus ne s'y appliquerait pas. Il ne concernerait que les zones suffisamment éloignées de ces concentrations de matière et ne contenant que du gaz dont (je suppose) on ne sait pas observer le red/blue shift car il doit très peu rayonner.

  14. #13
    yves95210

    Question Re : Courbure, Friedmann et structures

    Désolé d'être aussi bavard, mais ce point (le blueshift dû au facteur d'échelle local des vides cosmiques) me fait penser à une autre question, qui me tracasse depuis longtemps.

    Lorsqu'on parle de redshift observé, ne faut-il pas tenir compte de la situation de l'observateur (dans une galaxie, elle même dans un amas, etc.), non seulement (ce qui est fait) en tenant compte de sa vitesse propre par rapport au flux comobile, mais aussi du facteur d'échelle local, qui peut être assez différent de celui de l'univers moyen?

    En effet, les observateurs réels (nous) se situent dans des zones dont la virialisation est intervenue dans un lointain passé (à z >=10), figeant localement les distances à leur valeur de l'époque. A l'intérieur de cette zone virialisée, à part le redshift gravitationnel (ou plutôt blueshift dans ce sens), minime, la longueur d'onde des photons reçus depuis des galaxies lointaines ne change pas, donc c'est plutôt le facteur d'échelle local de sa périphérie qui intervient, donc probablement celui d'une grande zone (le superamas local) de densité supérieure à la densité critique, dont la partie centrale est en train de se contracter et la périphérie encore en expansion, mais moins rapide que celle de l'univers moyen (c'est certainement plus compliqué, un superamas est constitué de plusieurs amas faiblement liés gravitationnellement, séparés par des régions de faible densité, et pas simplement d'une "partie centrale" en train de se contracter et d'une "périphérie" encore en expansion; mais l'idée reste la même).

    C'est vrai aussi à propos de l'émission de la lumière qu'on reçoit, quand il s'agit de celle d'une galaxie lointaine, puisque les photons sont émis depuis une zone virialisée. Donc un effet compense peut-être l'autre, du moins en ordre de grandeur.
    Mais ce n'est pas vrai à propos du CMB, dont les photons sont issus d'une tranche spatiale homogène (à de très petites fluctuations près), de densité d'énergie quasiment égale à la densité critique (qu'on tienne compte de Lambda ou non).

    L'application d'un modèle de Friedmann à un univers moyen de densité uniforme (au-delà de l'échelle d'homogénéité) ne suppose-t-elle pas aussi de définir un observateur moyen (virtuel), qui serait comobile dans une région (virtuelle aussi...) de densité égale à la densité moyenne ?
    Et, pour pouvoir calculer les valeurs des paramètres de cet espace-temps moyen (par exemple son taux d'expansion), de savoir corriger les résultats de nos observations en fonction de tout ce qui nous différencie de cet observateur moyen (et qui ne se limite pas à notre vitesse propre dans le référentiel où le CMB est isotrope) ?

  15. #14
    physeb2

    Re : Courbure, Friedmann et structures

    Bonjour Yves, je commence par terminer avec une réponse qui m'a pris du temps à écrire de la premiere salve.
    Je regarderai plus tard (ce week-end je pense) les nouveaux messages. Mais ne t'inquiète pas, je ne les ommets absoluements pas

    et un doute : en fait les galaxies présentes dans les vides cosmiques doivent correspondre à des zones de surdensité relative par rapport à la densité de ces vides, puisqu'il a bien fallu que les zones de contenant ces galaxies aient une densité supérieure à la densité critique pour qu'elles commencent à se contracter. Donc le calcul ci-dessus ne s'y appliquerait pas ?
    Tout à fait. Je joints une représentation de champs gaussien aléatoire a 1 dimension pour explique un peu cela. En fait on sait que les perturbations initiales observées dans le CMB sont particulièrement gaussiennes. Cela peut se comprendre de la manière suivante:
    - Si tu place une sphere, de rayon R, sur 10,000 positions différentes et que tu mesure la densité moyenne dedans, et que tu fais un histogramme de la distribution de ces valeurs, tu obtient une gaussienne. Cette gaussienne est centrée sur la densité moyenne de l'univers et a une variance. Cette variance va changer avec la valeur de R.
    - Quand on dit que l'univers est homogene a 100 Mpc, cela veut dire que si tu faiut cet exercice avec des spheres de rayon R>100 Mpc alors ta distribution est un dirac centré sur la densité moyenne de l'univers.
    -Un chanps gaussien aléatoire est également gaussien dans l'espace de Fourier. Les delta_k (coefficients de transormé de fourier de la densité ) sont également gaussiens, cela veut dire que pour une fréquence donnée (i.e. une amplitude k donnée) la distribution est également une gaussienne centrée sur 0 et de variance qui dépend de la fréquence. C'est ce que l'on nomme le spectre de puissance, et c'est clà qui est représenté pour les perturbations de température du CMB (la fameuse super belle courbe de ).

    En suivant ce spectre de puissance, on peut générer des champs aléatoires gaussiens qui ont le propriétés correctes des distributions de perturbations au moment du CMB.

    Sur la figure attachée on peut voir un petit champs gaussaient aléatoire a 1 dimension. La courbe noire pleine représente la contribution des modes a grande échelle, qui nous dit dans quel contexte a grande échelle est chaque position. Si la courbe noire est haute, on est dans un contexte sur dense a grande échelle, si elle est très basse, on est dans un contexte de sous-densité a grande échelle. Les grands vides sont ces dernières parties, qui a grande échelle sont sous denses.

    Cependant, tu peux voir que les fluctuations a petites échelles peuvent générer des pics. Si ceux-si sont suffisamment haut, ils peuvent tout de même atteindre des valeurs de fluctuations localement sur dense, dans un contexte a large échelle sous-dense. Ces pics correspondent a des petits halos (petits comparé aux halo des grands amas de galaxies, mais qui peuvent tout de même être bien plus gros que 1010 masses solaires). Ces surdensités locales pourront collapser et permettra la formation des galaxies dans les zones de grands vides.

    Comme les densités partent depuis une valeur très basse pour le contexte agrande échelle, seulement quelques pics peuvent atteindre des surdensité locales suffisantes, par la superposition positives des modes a plus petites échelles, et don vont être moins nombreuse qu’en contexte moyen, De plus, la masse des halos qui vont collapsus est proportionnelle a la largeur des pics, donc pour ces memes raisons les grandes masses de halos naisseraont dans les contexte sur-dense a grande échelle, pas dans les grands vides (c’est intuitif mais pas trivial, donc je préfère le préciser).

    Cette relation entre la masse des halos et le contexte de densité a grande échelle est ce qui se nomme le biais des halos, pièce fondamentale pour pouvoir étudier les sondages de galaxies en cosmologie.
    Images attachées Images attachées

  16. #15
    yves95210

    Re : Courbure, Friedmann et structures

    Bonjour physeb,

    Merci pour tes explications. C'est très clair.
    Je vais attendre que tu aies répondu à mon message de ce matin; sinon je risque de te poser des questions redondantes.

    Pour le reste, ne perds pas trop de temps à me répondre au sujet du petit modèle que j'avais bricolé et des résultats obtenus (la fin de mon message de 11h15 hier à partir du moment où je rentre dans le détail avec le rappel de la métrique LTB, et le suivant), à moins que ça t'intéresse vraiment.
    Quand j'en commencé à en parler c'était juste pour illustrer le principe, i.e. la possibilité d'utiliser la métrique LTB pour représenter les (grandes) zones de sous- et surdensité sans avoir à les plonger dans un espace-temps de Friedmann (j'ai expliqué pourquoi je pense que ce n'est pas approprié, du moins pour traiter le problème de l'évolution des scalaires moyens à grande échelle). Mais je n'aurais pas dû rentrer autant dans les détails.

  17. #16
    physeb2

    Re : Courbure, Friedmann et structures

    Bonjour Yves,

    pour toute la partie LTB, merci de tes explications, je connais un peu pour avoir un collègue dans mon institut qui bosse depuis très longtemps avec Thomas Buchert, donc je suis habitué a voir les équations mais je ne les ai jamais manipulé moi même, donc je suis très loin d'être un expert. Je vais avoir besoin d'un peu plus de temps et de relecture pour être sûr de comprendre ce que tu as développé.

    Je peux en revanche commencer à répondre aux dernières questions:
    Lorsqu'on parle de redshift observé, ne faut-il pas tenir compte de la situation de l'observateur (dans une galaxie, elle même dans un amas, etc.), non seulement (ce qui est fait) en tenant compte de sa vitesse propre par rapport au flux comobile, mais aussi du facteur d'échelle local, qui peut être assez différent de celui de l'univers moyen?
    Les résultats que l'ont sort avec les relevés de galaxies spectroscopiques (BOSS puis eBOSS dernièrement, DESI très prochainement) est une combinaison de la mesure du pic des BAO avec l'étude de forme de la fonction de corrélation a toutes les échelles pour mesurés les effets de distortions dans l'espace des redshifts. (Redshift Spece Distortions : RSD en anglais).

    Il s'avère que l'effet a grande échelle (supérieur a 25-30 Mpc/h) des RSD, qui s'appelle l'effet Kaiser, est justement la prise en compte de l'effondrement des très grandes échelles: i.e. le facteur d'échelle locale qui croit differement que dans l'univers moyen. On le mesure très bien, nottamment en utilisant la décomposition quadrupolaire de la fonction de corrélation de points ou du spectre de puissance des galaxies.
    A petites échelles (en particulier a l'intérieurs des zones virialisées), ce sont les vitesses de virialisation qui dominent les distortions de redshifts. On appelle cet effet les Fingers-of-God (ça fait un effet star wars dans les données). L'effet de facteur d'échelle n'existe en revanche plus dans ces structures, mais un effet de redshift gravitationnel peut intervenir, bien qu'il soit souvent complètement négligeable devant les autres effets pour les relevés de galaxies. Il y a un magignifique papier pour la mesure de l'effet de redshift gravitationnel de Wojtak en 2011 si ça t'intéresse (https://arxiv.org/abs/1109.6571).


    C'est vrai aussi à propos de l'émission de la lumière qu'on reçoit, quand il s'agit de celle d'une galaxie lointaine, puisque les photons sont émis depuis une zone virialisée. Donc un effet compense peut-être l'autre, du moins en ordre de grandeur.
    Mais ce n'est pas vrai à propos du CMB, dont les photons sont issus d'une tranche spatiale homogène (à de très petites fluctuations près), de densité d'énergie quasiment égale à la densité critique (qu'on tienne compte de Lambda ou non).
    Pour le CMB, c'est assez drôle car l'effet de redshift gravitationnel est très important a prendre en compte. Les zones qui nous apparaissent plus froides sont en fait les zones surdenses car la temperature gagné par sur-densité est moitié moins forte que celle perdue pour s'extirper du potentiel gravitationnel.

    L'application d'un modèle de Friedmann à un univers moyen de densité uniforme (au-delà de l'échelle d'homogénéité) ne suppose-t-elle pas aussi de définir un observateur moyen (virtuel), qui serait comobile dans une région (virtuelle aussi...) de densité égale à la densité moyenne ?
    Je ne suis pas complètement sûr d'avoir compris mais je vais tenter. Tu peux définir un rérentiel privilégié avec le rayonnement du CMB. En mesurant en particulier le dipôle, tu as une estimation du mouvement que l'on a par rapport a ce référentiel. Tu peux alors faire les corrections pour te remettre dans ce référenteel. C'était d'ailleurs une critique émise par le groupe de Subir Sarkar en 2019 sur les études des SN-Ia qui ne prennent pas cet effet en compte.

    Dis moi si j'ai bien répondu aux bonnes questions

  18. #17
    yves95210

    Re : Courbure, Friedmann et structures

    Bonjour physeb,

    Pour le CMB, c'est assez drôle car l'effet de redshift gravitationnel est très important a prendre en compte. Les zones qui nous apparaissent plus froides sont en fait les zones surdenses car la temperature gagné par sur-densité est moitié moins forte que celle perdue pour s'extirper du potentiel gravitationnel.
    Je n'avais pas réalisé ça, effectivement ce n'est pas intuitif...

    Je ne suis pas complètement sûr d'avoir compris mais je vais tenter. Tu peux définir un rérentiel privilégié avec le rayonnement du CMB. En mesurant en particulier le dipôle, tu as une estimation du mouvement que l'on a par rapport a ce référentiel. Tu peux alors faire les corrections pour te remettre dans ce référenteel. C'était d'ailleurs une critique émise par le groupe de Subir Sarkar en 2019 sur les études des SN-Ia qui ne prennent pas cet effet en compte.
    Oui, je suis au courant. Mais ma question ne portait pas là-dessus, et tu y as bien répondu avec la première partie de ton message, au sujet de la correction de l'effet des RSD.

    Après, il reste une question. On apporte bien les corrections permettant de produire une image du CMB conforme à celle que verrait un observateur comobile dans l'univers moyen. Elles sont de deux natures : on corrige l'effet de notre vitesse propre par rapport à un référentiel dans lequel le CMB serait isotrope (annulation du dipôle); et on corrige l'effet des RSD. La première correction peut se faire indépendamment du modèle (il me semble), mais la deuxième ?

    NB : par indépendant du modèle, je veux dire non seulement indépendant des valeurs des paramètres du modèle LambdaCDM (et donc du modèle de Friedmann-Lemaître sous-jacent), mais aussi indépendant de l'hypothèse selon laquelle l'univers moyen évolue comme un modèle de Friedmann-Lemaître à toute époque.
    Je me doute que les cosmologistes se sont déjà posé cette question, en particulier ceux qui s'intéressent aux modèles de cosmologie non homogène (selon lesquels l'univers moyen n'évolue pas exactement comme le modèle de FL), mais je ne sais pas comment ils y ont répondu.

  19. #18
    physeb2

    Re : Courbure, Friedmann et structures

    Après, il reste une question. On apporte bien les corrections permettant de produire une image du CMB conforme à celle que verrait un observateur comobile dans l'univers moyen. Elles sont de deux natures : on corrige l'effet de notre vitesse propre par rapport à un référentiel dans lequel le CMB serait isotrope (annulation du dipôle); et on corrige l'effet des RSD. La première correction peut se faire indépendamment du modèle (il me semble), mais la deuxième ?
    Tout à fait, la mesure du dipole du CMB est complètement indépendante du modèle alors que les effets de RSD le sont.
    Ce qu'on fait pour quand on étudie les catalogues de galaxies, il faut convertir les redshifts mesurés en distances. Pour celà il faut assumer une cosmologie dite "fiducielle", ce qui comprends le choix de la métrique et les valeurs des paramètres cosmologiques d'utilité (en particulier: ). Une fois celà fait, nous avons le catalogue de galaxies tridimentionel, en coordonnées comobiles. On peut faire l'analyse statistique et faire la décomposition en multipoles. En même teps, on fait l'estimation de la valeur des paramètres de distortion d'Alcock-Paczynski, en particulier sur la position du pic des BAO en fonction de l'angle avec la ligne de visée. Le pic des BAO est censé être une sphère isotropique, et une anisotropie met en évidence que ta cosmologie fiducielle est incorrecte. Cependant, les effets de RSD provoquent également une anisotropie, mais qu'on sait modéliser et que diffère de celle attendue par erreur dans le choix de la cosmologie fiducielle. C'est la manière, pour un modèle donné, de se sortir de la partie modèle dépendante. Cependant, si tu changes de métrique, tu dois tout refaire, depuis la génération des simulations numériques pour évaluer la matrice de covariance.... Et ça c'est un point très complexe pour étudier les autres modèles.

  20. #19
    yves95210

    Re : Courbure, Friedmann et structures

    Citation Envoyé par physeb2 Voir le message
    En même temps, on fait l'estimation de la valeur des paramètres de distortion d'Alcock-Paczynski, en particulier sur la position du pic des BAO en fonction de l'angle avec la ligne de visée. Le pic des BAO est censé être une sphère isotropique, et une anisotropie met en évidence que ta cosmologie fiducielle est incorrecte.
    OK. C'est le même genre d'idée que celle (hypothétique) dont je parlais dans l'autre discussion, utilisant les vides cosmiques (mais je n'avais pas pensé au pic des BAO, ne sachant pas qu'on arrivait à en déterminer la géométrie avec suffisamment de précision) :
    Citation Envoyé par yves
    Si courbure il y a, les plus grandes structures assez régulières pour qu'on puisse constater (statistiquement) une déformation de leur géométrie sont les vides cosmiques, mais il faudrait pouvoir délimiter leurs contours assez précisément pour vérifier si leur géométrie moyenne (obtenue sur un grand nombre de vides) qui devrait paraître sphérique si l'espace est "plat", l'est réellement. Alors que, si la courbure spatiale est assez importante, leur diamètre apparent suivant la ligne de visée (distance comobile radiale) doit être différent de leur diamètre perpendiculaire à la ligne de visée (distance comobile transverse).
    A quelle précision arrive-t-on avec les BAO ? Est-elle suffisante pour distinguer le modèle standard avec et d'un modèle dans lequel la moyenne à grande échelle (utilisant le théorème de Buchert) conduirait à une équation de Friedmann effective(*) dans l'univers récent avec non négligeable et une valeur de plus faible - éventuellement nulle ?

    (*) "effective" car ne découlant pas d'une métrique de Friedmann, solution de l'équation d'Einstein, et n'évoluant pas exactement comme dans le modèle de Friedmann.

    Cependant, les effets de RSD provoquent également une anisotropie, mais qu'on sait modéliser et que diffère de celle attendue par erreur dans le choix de la cosmologie fiducielle. C'est la manière, pour un modèle donné, de se sortir de la partie modèle dépendante. Cependant, si tu changes de métrique, tu dois tout refaire, depuis la génération des simulations numériques pour évaluer la matrice de covariance.... Et ça c'est un point très complexe pour étudier les autres modèles.
    Oui, je m'en rends compte... et je ne prétends pas me lancer là-dedans !

  21. #20
    yves95210

    Re : Courbure, Friedmann et structures

    Salut physeb,

    Citation Envoyé par yves95210 Voir le message
    à quelle précision arrive-t-on avec les BAO ? Est-elle suffisante pour distinguer le modèle standard avec et d'un modèle dans lequel la moyenne à grande échelle (utilisant le théorème de Buchert) conduirait à une équation de Friedmann effective(*) dans l'univers récent avec non négligeable et une valeur de plus faible ?
    Je précise un peu ma pensée : les profils de vélocité des grands vides cosmiques (ceux qui doivent être issu des plus grandes zones de sous-densité de l'univers primitif) indiquent que leur taux d'expansion est aujourd'hui environ 5% plus élevé que celui de l'univers moyen (cf. la référence déjà citée), ce qui donne un Hv2 environ 10% plus élevé que H02. Pour une même valeur de Λ, ça donne un ΩΛv~0,9*ΩΛ, et avec une densité de matière ~50% de la densité moyenne dans les plus grands vides, Ωmv~0,45*Ωm. Avec Ωm=0,3 et ΩΛ=0,7, on doit donc avoir Ωmv~0,13 et ΩΛv~0,63, ce qui correspond à une courbure négative telle que Ωkv~0,24.

    Les vides représentent aujourd'hui environ les 2/3 du volume d'une zone de taille supérieure à l'échelle d'homogénéité, et cette fraction est croissante. Quant aux plus grandes zones de surdensité, les filaments et murs cosmiques, leur densité totale d'énergie n'est peut-être (je ne sais pas, je n'ai pas trouvé cette donnée) pas très différente de celle de l'univers moyen, à part bien sûr dans leurs parties virialisées (amas) et les zones qui les entourent, à l'intérieur des superamas - mais celles-ci, représentent une fraction du volume total de plus en plus faible et contribuent donc de moins en moins aux valeurs moyennes de la densité de matière et de la courbure à l'échelle d'homogénéité.

    Au total il est donc possible que la contribution des vides conduise à une courbure moyenne négative, non négligeable. Dans ce cas, l'univers moyen ne pourrait pas être décrit par un modèle basé sur la métrique FLRW avec courbure spatiale nulle, du moins après la formation des grandes structures (dont les vides cosmiques), et il s'en écarterait de plus en plus.
    Mais cette hypothèse est simple à réfuter (du moins théoriquement...) : il faudrait être capable d'estimer la densité moyenne de courbure à grande échelle de l'univers récent avec une précision suffisante pour pouvoir dire qu'elle reste négligeable par rapport à la densité moyenne d'énergie.

    A l'aide des pics des BAO, obtient-on une précision suffisante pour exclure que Ωk soit supérieur à quelques % ?
    Par exemple à z=1, avec H0=70 km/s/Mpc, Ωm=0,28, ΩΛ=0,68 (et donc Ωk=0,04) la distance comobile radiale est de 3303,1 Mpc et la distance comobile transverse de 3316,2 Mpc, ce qui ne fait que 0,4% de différence. Et cette différence n'est encore que de 1% pour Ωk=0,1.
    (calculs effectués avec https://www.astro.ucla.edu/~wright/CosmoCalc.html, certainement plus digne de confiance que les miens...)

  22. #21
    yves95210

    Re : Courbure, Friedmann et structures

    Bonjour physeb,

    Je profite de ta présence sur le forum pour te rappeler cette discussion, et la question que je posais dans mon dernier message :
    la précision à laquelle on arrive avec les BAO permet-elle d'exclure une valeur de Ωk de l'ordre de 0,1 ?

  23. #22
    physeb2

    Re : Courbure, Friedmann et structures

    Pardon Yves, j'avais complètement oublié…

    J'ai quelques réunions qui commencent dans 10 minutes. Mais quand j'en termine je répondrai.

  24. #23
    physeb2

    Re : Courbure, Friedmann et structures

    la précision à laquelle on arrive avec les BAO permet-elle d'exclure une valeur de Ωk de l'ordre de 0,1 ?
    alors il y a deux choses a prendre en compte. Si on accepte les mesures de la Nucléosynthèse primordiale, nous pouvons alors connaitre la distance parcourue par les ondes sonores durant l'ère du plasma (jusqu'a l'émission du CMB). Ça demande certaines hypothèses. Alors dans ce cas, on prut en déduire de la courbure avec le CMB et les BAO indépendemment.

    Dans ce cas les BAO excluent totalement Omega_k de l'ordre de 0.1 en effet.

    J'espere que j'ai répondu a ta question.

  25. #24
    yves95210

    Re : Courbure, Friedmann et structures

    Bonjour physeb,

    Ta réponse est un peu trop elliptique pour me permettre de comprendre comment, à partir de mesures de distance (diamètres des BAO suivant la ligne de visée et perpendiculairement à cette ligne) dont l'incertitude est de quelques %, on arrive à contraindre la valeur de Omega_k à 1% près.
    Il faut sans-doute que je fasse l'effort de lire cette publication dans le détail, pour autant que j'en sois capable... A moins que tu aies une autre référence à me proposer.

  26. #25
    physeb2

    Re : Courbure, Friedmann et structures

    Bonjour Yves,

    Je vais faire une réponse beaucoup plus détaillée qui génèrera certainement d'autres questions. Allons-y !

    Je commence avec une réponse ultra rapide à ta question : comment on arrive a mesurer un paramètre à moins de 1% avec une mesure précise a plus de 1%? Cela vient de la sensibilité d'un paramètre sur le modèle. Si bouger très peu un paramètre change grandement la forme du modèle, alors une petite variation de celui-ci va être exclue par les mesures. C'est ce qui se passe pour la courbure, car elle change l'angle auquel tu espère observer le pic des BAO. Donc même si on a une précesion de 10% sur cette position (on fait mieux mais c'est pour dire un exemple), tu peux tout a fait avoir une précision relative sur le paramètre de courbure qui est bonne.

    Maitenant, il faut expliquer comment on arrive a mesurer avec grande précision la position du Peak des BAO, car c'est plus subtile qu'il n'y parrait. Je ne vais tout expliquer mais tout de même mentionner la méthodologie.

    Au niveau des données (galaxies en général):
    -1- On utilise une cosmologie fiducielle pour convertir les positions dans le ciel + redshifts en une position physique en 3D
    -2- On applique l'algorithme de reconstruction sur la position des galaxies. On utilise leur distribution pour inférer le champs de densité de matière, on calcul les gradients puis on évalue le champs de déplacement qu'on subit les galaxies lors de l'histoire de la formation des structures. (Approximation d Zeldovich pour être précis)
    -3- On évalue la fonction de corrélation (il aura fallu générer un grand nombre de simulations afin d'évaluer la matrice de corrélation, et générer des catalogues aléatoires)

    Côté analyse/modèle
    -1- On retire la forme de la fonction de corrélation globale pour ne garder que le pic.
    -2- On génère les templates pour la cosologie fiducielle
    -3- On applique les transformations d'Alcock-Paczynski, qui permetten de faire évoluer de manière général le template dans le cas où la cosmologie fiducielle est incompatible avec les mesures (on va absorber toute la cosmologie dans ces 2 paramètres)
    -4- On prépare les modifications avec les paramètres de nuisance (tout ce qui n'est pas directement les paramètres cosmologiques: biais des galaxies par exemple, parametres du modele qui ne sont pas cosmo)
    -5- On fait l'analyse type Monte Carlo Markov Chain pour estimer la distribution du posterieur sur les parametres Alcock-Paczynski et les paramètres de nuisance.
    -6- On projette le postérieur des paramètres Alcock-Paczynski sur les parametres cosmologiques dont le paramètre de courbure.

    Ce qui va te donner la restriction sur les parametres cosmologique, ce sont les dérivées secondes des parametres Alcock-Paczynski par rapport a chaque parametre.

    J'espère que cette fois je suis plus proche de ce que tu attendais.

  27. #26
    yves95210

    Re : Courbure, Friedmann et structures

    Bonjour physeb,

    Merci beaucoup pour ta réponse détaillée.

  28. #27
    yves95210

    Re : Courbure, Friedmann et structures

    Bon. Je pense avoir compris la méthodologie.

    Je vois dans la publication "Detection of the Baryon Acoustic Peak in the Large-Scale Correlation Function of SDSS Luminous Red Galaxies" que

    1) l'effet Alcock-Paczynski n'est pris en considération que pour calculer une échelle de dilatation DV(z) comme racine cubique du produit de la dilatation radiale et du carré de la dilatation transverse.
    2) Le pic des BAO permet de déterminer le rapport entre DV(0,35) et la distance comobile transverse DM(1089) calculée selon la cosmologie fiducielle (Ωm=0,3, ΩΛ=0,7 et h=0,7).
    3) Pour des modèles plus généraux d'énergie sombre, les auteurs en déduisent une relation Ωm = 0,273 + 0,123(1+w0) + 0,137Ωk.
    4) En combinant cela avec l'échelle acoustique du CMB, il obtiennent Ωk = -0,010 ± 0,009.

    Mais il me semble que cela reste dépendant de la validité à toute époque du modèle LambdaCDM (et ses variantes avec w≠-1) et ne permet pas d'exclure une courbure spatiale moyenne "émergente" comme proposé par exemple dans ce papier de K. Bolejko datant de 2017 (non publié, mais celui-ci, postérieur, l'a été).

    Pour avoir une mesure de la courbure moyenne dans l'univers récent indépendante du modèle, il faudrait pouvoir comparer la dilatation radiale et la dilatation transverse (apparentes) d'une même sphère de surdensité issue des BAO, au lieu de se contenter de considérer la dilation de son volume. Et comme, bien sûr, ces sphères idéales n'existent qu'en moyenne compte-tenu des déplacements locaux des galaxies et des clusters, il faudrait faire cette moyenne sur un échantillon assez important.

    Je ne sais pas si ça a déjà été fait, ou si c'est possible avec les données d'observations actuelles. Mais je suppose que si c'était le cas, le débat aurait été tranché : les modèles de cosmologie inhomogènes qui conduisent à une courbure spatiale moyenne négative auraient été réfutés (ou le modèle LambdaCDM l'aurait été...). En tout cas, selon Bolejko (en 2017),

    At this stage, the phenomenon of the emerging spatial curvature does seem to be a viable and attractive explanation of the Hubble constant problem. In fact, one can turn the argument around and argue that the presence of the tension between low and high-redshift measurements is a moderate (indirect) evidence for the phenomenon of emerging spatial curvature. From the point of view of astronomical observations, we still do not have a direct measurement of the spatial curvature at low-redshifts. Currently, the low-redshift measurements do not provide any direct measurement of the spatial curvature (available constrains merely result from fitting the FLRW geometry to the data, which is not equivalent to a direct measurment). The situation will change in a few years time with the data from the satellite Euclid.

  29. #28
    physeb2

    Re : Courbure, Friedmann et structures

    Bonjour Yves,

    la publication que tu lis est la publication fondatrice de Daniel Eisenstein et collaborateurs, nous avons fait bien du chemin depuis.

    Il s'agit de la détection du pic des BAO pour la premêre fois dans le distribution des galaxies (ça fera peut être un prix Nobel ce papier). Il ne s'agissait pas encore de faire de la cosologie de précision avec, seulement de montrer qu'on le détecte.

    1) donc l'effet Alcock-Paczynski est pas encore important à prendre en compte, surtout que tu vas donner des contraintes dominées par le CMB.
    2) Tu vois que même la cosmologie fiducielle est complètement grossière, il y avait des valeurs légèrement différentes que celles-là. Mais vu les erreurs de l'époque on utilisait par défaut cette cosmologie pour faire la plus part des simulations...et donc on utilisait cette cosmologie comme fiduciell pour faire l'analyse
    3) c'était très prématuré de donner un résultat sur une expansion type CPL de l'énergie noire, mais c'était déjà très clairement indentifié que les BAO des galaxies allaient pouvoir contraindre fortement une énergie noire dynamique, vu qu'on allait avoir enfin acces åa la même information que le CMB mais à d'autres redshifts.
    4) C'est évidemment dominé par le CMB, ce qui n'est plus vraiment le cas aujour'dhui! BAO arrive a donner des contraintes seuls pas si mal et les prochains observatoires (DESI en particulier) vont donner ds contraintes aussi bonnes que le CMB.

    Mais il me semble que cela reste dépendant de la validité à toute époque du modèle LambdaCDM (et ses variantes avec w≠-1) et ne permet pas d'exclure une courbure spatiale moyenne "émergente" comme proposé par exemple dans ce papier de K. Bolejko datant de 2017 (non publié, mais celui-ci, postérieur, l'a été).
    Depuis on a beacoup mieux. Cependant, c'est toujours en assumant que les résultats de la nucléosynthèse primordiale et un fluide barotropique durant la phase de plasma. Si cela change, la courbure changera.

    Pour avoir une mesure de la courbure moyenne dans l'univers récent indépendante du modèle, il faudrait pouvoir comparer la dilatation radiale et la dilatation transverse (apparentes) d'une même sphère de surdensité issue des BAO, au lieu de se contenter de considérer la dilation de son volume. Et comme, bien sûr, ces sphères idéales n'existent qu'en moyenne compte-tenu des déplacements locaux des galaxies et des clusters, il faudrait faire cette moyenne sur un échantillon assez important.
    C'est exactement ce que l'on fait avec la combinaison de la'analyse pic BAO avec le Redshift Space Distortion

    Je ne sais pas si ça a déjà été fait, ou si c'est possible avec les données d'observations actuelles. Mais je suppose que si c'était le cas, le débat aurait été tranché : les modèles de cosmologie inhomogènes qui conduisent à une courbure spatiale moyenne négative auraient été réfutés (ou le modèle LambdaCDM l'aurait été...). En tout cas, selon Bolejko (en 2017),
    Des papiers comme celui de Bolejko, y en a pleins. Ce sont des études assez simplistes sur l'évolution de l'Univers de fond (pas de prise en compte la foration des structures). Ces papiers ont leur raison d'exister, mais en vrai on n'y fait pas trop attention du côté des collaborations. Mais attention, je ne dis pas que ce sont des torchons. C'est juste qu'il y en a des centaines avec pleins de modèles différents. On y fait plus attention quand il y a un travail en aval sur les implication sur la formation des structures, mais c'est très rarement le cas.

    Juste pour mettre un peu de contexte historique, la reconstruction est également quelque chose qui vien en partie de Daniel Eisenstein et qui est depuis la fin des années 2000 une pièce essentielle de l'analyse du pic des BAO. Elle est également absente du papier initial, ce qui est tout à fait normal.

  30. #29
    yves95210

    Re : Courbure, Friedmann et structures

    Bonjour physeb,

    Citation Envoyé par physeb2 Voir le message
    la publication que tu lis est la publication fondatrice de Daniel Eisenstein et collaborateurs, nous avons fait bien du chemin depuis.
    Je m'en doute...

    C'est exactement ce que l'on fait avec la combinaison de la'analyse pic BAO avec le Redshift Space Distortion
    As-tu un (ou des) lien(s) à me proposer ? De préférence vers des papiers pas trop compliqués à comprendre...

    Des papiers comme celui de Bolejko, y en a pleins. Ce sont des études assez simplistes sur l'évolution de l'Univers de fond (pas de prise en compte la foration des structures). Ces papiers ont leur raison d'exister, mais en vrai on n'y fait pas trop attention du côté des collaborations. Mais attention, je ne dis pas que ce sont des torchons. C'est juste qu'il y en a des centaines avec pleins de modèles différents. On y fait plus attention quand il y a un travail en aval sur les implication sur la formation des structures, mais c'est très rarement le cas.
    Je comprends. L'intérêt que je vois à ces papiers, c'est qu'ils répondent (même si de manière simpliste) à la question soulevée par les équations de Buchert : compte-tenu de la "backreaction", il faudrait quand-même une sacrée coïncidence pour que les scalaires de l'univers moyen (taux d'expansion, courbure spatiale) continuent d'évoluer exactement comme prédit par les équations de Friedmann malgré l'inhomogénéité croissante à partir du début de la formation des structures. Mais évidemment, si l'écart entre les deux solutions est négligeable, ça ne sert pas à grand-chose de se compliquer la vie en abandonnant le modèle cosmologique homogène...

    Même si elles restent macroscopiques (les grandes structures n'y sont représentées que par des valeurs moyennes), des études comme celle de Bolejko, permettant de quantifier l'écart entre les valeurs du taux d'expansion et de la courbure calculées selon Friedmann et celles obtenues par simulation à partir des équations de Buchert, me semblent dignes d'intérêt, en particulier si elles montrent qu'une telle démarche pourrait permettre de résoudre la tension sur la valeur de Ho.

    Au-delà, ça devient vite trop compliqué pour moi et je n'ai pas regardé de près les papiers de Buchert et autres concernant l'impact sur la formation des structures (je sais qu'il y en a; mais je ne sais pas s'ils font des prédictions assez différentes de celles du modèle standard pour pouvoir donner lieu à des observations).

    Mais si on dispose effectivement de mesures indépendantes du modèle et excluant une courbure spatiale moyenne supérieure à ~1% dans l'univers récent, ça remet en question certains (la plupart ?) des modèles de cosmologie inhomogène.

Discussions similaires

  1. Mécanique des structures / structures en nid d'abeille
    Par invited4743cb4 dans le forum TPE / TIPE et autres travaux
    Réponses: 3
    Dernier message: 12/10/2015, 08h12
  2. alexandre friedmann
    Par inviteb5cfe0db dans le forum Archives
    Réponses: 2
    Dernier message: 13/12/2012, 09h18
  3. C : Initialisation de structures/tableaux de structures
    Par invitef1d0ad93 dans le forum Logiciel - Software - Open Source
    Réponses: 1
    Dernier message: 12/08/2008, 11h57
  4. equation de Friedmann
    Par invite6c9882bb dans le forum Archives
    Réponses: 3
    Dernier message: 04/06/2005, 12h06