Salut à tous et à toutes!

J'ai un petit problème que je ne parvient pas à comprendre concernant les incertitudes de lecture sur un axe gradué.

Prenons l'exemple d'un thermomètre. L'incertitude sur la lecture avec un niveau de confiance de 95% se calcul ainsi :



La démonstration se base (il me semble) sur le fait que la valeur réelle se situe de manière équiprobable à + ou - 1/2 graduation de la valeur lue. Elle consiste donc à prendre 2 fois l'écart-type d'une distribution constante égale à 1 et large de 1 graduation autour de la valeur lue. On se base donc sur le fait qu'à + ou - 0,5° de la valeur lue la densité de probabilité est nulle.

Comment se fait-il alors qu'il y a 5% de probabilité pour que la température diffère de plus 0,58° de la valeur lue?

Je vous remercie d'avance pour l'intérêt que vous prêterez à mon problème.