Bonjour à tous,
Je suis actuellement en train de développer une méthode d'analyse du phosphore dans les eaux par spectrophotométrie. J'ai effectué plusieurs mesures pour vérifier une limite de quantification (concentration la plus basse pouvant être mesurée avec précision) présumée à 0.02 mg/L. J'ai ensuite calculé le risque bêta associé et la puissance du test. Je trouve, en prenant un risque alpha de 5% et un écart maximal acceptable de 60%, un risque bêta égal à 25.26 % et donc une puissance de test de 75.74 %.
j'ai cependant un peu de mal avec l'interprétation de ces résultats. Quelqu'un pourrait-il me dire si ce que j'écris ci-dessous est correct :
- pour un échantillon dont la concentration s'écarte, en réalité, de plus de 60 % de la limite de quantification, il y a 25.26 % de chances de déclarer que la concentration s'écarte de moins de 60 % (donc d'accepter à tort l'hypothèse "l'échantillon a une concentration qui s'écarte de moins de 60 % de la LQ")
- pour un échantillon dont la concentration s'écarte, en réalité, de plus de 60% de la limite de quantification, il y a 75.74 % de chances de déclarer que la concentration s'écarte de plus de 60 % (donc de rejeter à raison l'hypothèse "l'échantillon a une concentration qui s'écarte de moins de 60 % de la LQ")
Je ne suis pas sûr du tout que ça soit correct. Quelqu'un pourrait-il confirmer ou infirmer cela ? j'ai déjà posé ma question en chimie mais j'aurai peut-être davantage de chances ici.
Merci d'avance
-----