Bonjour à tous, j'ai besoin de votre aide pour un exercice qui me pose problème

Voila l'énoncé :

On réalise une figure d'interférences à l'aide de fentes d'Young placées devant un faisceau laser séparées par une distance b=(0,500+0,005)mm.
La figure est observée sur un écran à une distance D=1,15m du plan des fentes, cette distance étant mesurée avec une incertitude U(D)= 1 cm
Pour déterminer la longueur d'onde du laser, on mesure la distance séparant deux franges brillantes consécutives appelée "interfranges" et notées i.
On obtient i=1,36mm avec une incertitude U(i)=1/100 mm.

1) Déterminer la longueur d'onde du laser

Pour cette question je trouve : Lambda = 5,97 nm

2) L'incertitude sur la mesure de lambda peut être évaluée par :

U(lambda) = Lambda * Racine carrée de [ ( U(b)/b )² + ( U(i)/i )² + ( U(D)/D )² ]

Pour U(b) c'est 0,5mm ?

Et je ne comprends pas à quoi correspond l'incertitude U(i) = 1/100mm


Pourriez vous m'aidez ?

Merci d'avance