Bonjour à tous,
C'est un sujet qui revient régulièrement dans les publications scientifiques et dans les articles de vulgarisation, je pense particulièrement à ceux de Laurent Sacco sur Futura et cela a aussi été à la une d'un récent numéro de Pour la science, je veux parler de la fameuse divergence entre les mesures de la constante de Hubble au niveau de l'univers primordial et au niveau de l'univers plus récent.
Bien entendu, j'ai conscience que la discussion reste ouverte. Néanmoins, ce que j'en comprends est la chose suivante :
Si la constante de Hubble mesurée pour l'univers récent est plus élevée que la constante de Hubble mesurée pour l'univers primordial, et sous réserve qu''il ne s'agisse pas d'un problème de mesure, cela pourrait être interprété comme une preuve que la valeur de la constante de Hubble augmente dans le temps et donc que l'expansion de l'univers accélère.
Est-ce bien le raisonnement envisagé (erreur de mesure mise à part) ?
Si oui, en quoi est-ce une surprise ou un problème ? En effet, j'avais cru comprendre qu'une très probable accélération de l'expansion de l'univers et donc un accroissement dans le temps de la constante de Hubble avait déjà été mise en évidence au sein même de l'univers récent, je parle notamment des supernovae Ia (Adam G. Riess, Alexei V. Filippenko et al. 1998) (S. Perlmutter, G. Aldering et al. 1999).
Ne s'agirait-il pas simplement d'une confirmation de la justesse du modèle lambda-CDM impliquant une accélération de l'expansion ?
Vous remerciant par avance de votre éclairage !
-----