Bonjour à tous ! (ou plutôt bonsoir ^^)
Je viens vers vous car pour un compte rendu de TP de physique de ma licence de géol j'ai un problème pour calculer une incertitude.
En effet c'est un TP sur les interférence et diffraction. Pour vous remettre la chose en contexte j'ai une largeur de fente inconnue, située à une distance D (incertitude d'un mm) d'un écran sur lequel se forme la figure de diffraction. On mesure à l'aide d'une règle graduée la largeur de cette tache (c'est l qui présente une incertitude de 1mm de chaque côté donc delta(l) serait de 2mm non ?).
La formule pour calculer la largeur de la fente est a = (2*lambda*D)/l avec lambda la longueur d'onde de mon laser (sans incertitude)
Je cherche donc delta(a).
Mon problème est qu'elle devrait être constante pour mes trois fentes différentes non ? (car ce n'est pas le cas est de plus je trouve une incertitude de quelques dixième de micro mètres... )
Merci d'avance de votre aide !
Clément
-----