Bonjour,
dans un cas pratique pour évaluer un circuit électronique, j'aimerais calculer l'erreur relative sur la mesure d'un courant. Selon moi il y avait 2 possibilités équivalente de calculer l'erreur relative mais je n'obtiens pas la même chose, j'en déduis donc qu'une des deux est fausse. La mesure concerne la mesure mesure d'un courant, sachant que théoriquement je devrais avoir 18.66mV/mA. Voici quelques données:
1,00 0,14465332
2 0,163574219
Methode 1:
Err = 100*(0.16357-0.14465 - 0.01866)/0.01866 = 1.39%
Méthode 2:
Err = 100*(0.16357-(0.14465+0.01866))/(0.14465+0.01866) = 0.159%
Je pense que la méthode 2 n'est pas correcte mais je ne comprend pas pourquoi. J'ai 144mV, j'ajoute 1mA donc en théorie je devrais avoir 144mV+18.66mV et je calcul l'erreur relative entre la vrai valeur et la valeur que j'aurais du obtenir.
Dans l'autre cas, j'ai augmenter de 1mA, donc je dois avoir un différence de 18.66mV en théorie et je calcul l'erreur avec la différence réel obtenu.
Dans les deux cas j'ai l'impression d'être correcte pourtant il y a un truc qui m’échappe.
Merci d'avance pour vos lumières!
-----