Bonjour à tous, j'ai besoin de votre aide pour un exercice qui me pose problème
Voila l'énoncé :
On réalise une figure d'interférences à l'aide de fentes d'Young placées devant un faisceau laser séparées par une distance b=(0,500+0,005)mm.
La figure est observée sur un écran à une distance D=1,15m du plan des fentes, cette distance étant mesurée avec une incertitude U(D)= 1 cm
Pour déterminer la longueur d'onde du laser, on mesure la distance séparant deux franges brillantes consécutives appelée "interfranges" et notées i.
On obtient i=1,36mm avec une incertitude U(i)=1/100 mm.
1) Déterminer la longueur d'onde du laser
Pour cette question je trouve : Lambda = 5,97 nm
2) L'incertitude sur la mesure de lambda peut être évaluée par :
U(lambda) = Lambda * Racine carrée de [ ( U(b)/b )² + ( U(i)/i )² + ( U(D)/D )² ]
Pour U(b) c'est 0,5mm ?
Et je ne comprends pas à quoi correspond l'incertitude U(i) = 1/100mm
Pourriez vous m'aidez ?
Merci d'avance
-----