Bonsoir,
Je m'amusais à une petite expérience de pensée qui m'a posé une colle.
Imaginons une règle graduée en cm de telle sorte que chaque graduation se trouve à 1 cm de la suivante, avec une imprécision située aléatoirement entre -20% (8mm de l'autre graduation) et +20% (1,2cm de l'autre graduation) et en suivant une loi uniforme (le probabilité du pourcentage d'erreur est constante entre -20% et +20%).
On suppose que la règle peut-être aussi longue que l'on veut (plusieurs milliers de km par exemple).
Alors paradoxalement, plus la longueur d'un objet mesuré est grande, plus la précision de la mesure aura de probabilité d'être grande !
En effet la loi des grands nombres indique que plus le nombre de graduations est grand, plus les erreurs vont se compenser car également réparties. (peut-être que l'erreur est là, car l'erreur moyenne est multipliée par le nombre de graduations ?)
Oui mais voilà : supposons un objet très grand mesurant précisément N cm selon cette règle, et un autre objet mesurant N-1 cm avec cette règle.
Cet autre objet est mesuré avec une précision très proche du premier puisque N-1 et N sont très grands.
Donc l'écart de distance entre les deux sera très proche de 1 cm. C'est absurde, puisque cet écart correspond à 1 graduation et chaque graduation à une imprécision comprise aléatoirement entre -20% et +20%.
J'ai fait une erreur de raisonnement idiote, mais j'aimerais bien savoir laquelle.
Merci.
PS : peut-être pourrait-on espérer dépasser la précision de nos meilleurs instruments de mesures avec une telle règle ?
-----