Bonjour à tous et bonne semaine.
Je reviens sur une discussion qui s'est ouverte la semaine dernière de manière embryonnaire dans un autre topic, et qui me laisse perplexe, car j'y vois un paradoxe que je ne parviens pas à résoudre.
Le problème est le suivant : en RG, le temps s'écoule plus lentement si la gravité locale augmente. Donc, si je prends deux horloges atomiques identiques, l'une restant sur Terre et l'autre placée sur la Lune, je constaterai que le temps s'écoule plus vite sur la Lune que sur Terre.
D'autre part, on sait que c est constant dans tous les référentiels. Donc, si je mesure depuis la Terre le temps que met un signal laser pour faire le trajet aller-retour Terre-Lune-Terre, cela va me donner la distance du trajet de manière très précise. Mais si j'effectue la même mesure depuis la Lune, je vais trouver une plus grande distance, vu que le trajet mesuré est le même, mais qu'il s'y est écoulé plus de temps entre l'émission et la réception du signal. Deux résultats différents pour la même expérience, selon la position de l'observateur ! Où est l'erreur ?
-----