Bonjour tout le monde j'ai une question concernant l'intervalle de confiance à 95% et l'incertitude sur la mesure (précision)
Quand on a une série de mesure m i on calcul (la moyenne m(moyenne) et l'écart type s avec calculatrice ou excell).
Si la répartition est une gaussienne centrée sur la moyenne.
l'intervalle de confiance est défini par :
m = m(moyenne) - 2s et m = m(moyenne) + 2s
et delta (m) = 2s
95% de chance de trouver les valeurs mi dans cet intervalle.
Dans mon livre il est précisé que cette formule est valable lorsque les valeur mi mesurée sont fluctuante à cause de l'appareil de mesure.
Si la fluctuation provient des incertitudes sur la mesure liée à l'expérimentateur on me propose la formule suivante pour déterminer l'intervalle de confiance :
m = m(moyenne) - 2s/racine carrée (n) et m = m(moyenne) + 2s/racine carrée (n)
n étant le nombre de mesure et delta (m) = 2s/racine carrée (n)
pourquoi utilise t on deux formules différentes???
-----