Bonjour,
je dois faire le calcul simple suivant : soit 2 points séparés d'une distance égale à 1 diamètre terrestre (d0=12000 km). Quel est est la distance de ces 2 points au bout d'un an avec un taux d'expansion de 100 km/s/Mpc (je pense qu'il faut supposer que H0 reste constant durant cette année) :
si j'applique la loi de Hubble : v = H0*d, on peut peut-être transformer cette relation en prenant l'expression de d suivante : d=d0*exp(H0*t)
soit en prenant t=1an et d0=Diamètre_Terre, on aurait : d=d0*exp(3600*24*365*100000/(3*10^(22))) = 12000000*exp(3600*24*365*10000 0/(3*10^(22))) = 12*10^6 mètres = 12000 km
Le problème comme vous le voyez que la distance au bout d'1 an est la même que la distance initiale : y'a t-il une erreur dans ce petit calcul ? ou est-ce du à la faiblesse de l'expansion sur une échelle aussi petite ?
Merci pour votre aide
-----