Bonjour,
J'étudie en ce moment le fonctionnement de spectromètre à réseau. Je sollicite votre aide pour acquérir des notions d'analyses. On cherche à déterminer les performances d’un système dédié à la mesure de Nickel (Ni). On s’intéressera également à la mesure de Silicium (Si), Sodium (Na) et Titane (Ti). Ce type de spectromètre permet l’acquisition de spectres avec une grande sensibilité sur une gamme spectrale de l’ordre de 30 nm de large.
Des mesures préliminaires sont réalisées sur un échantillon de référence contenant 19 % de Si, 2% de Na, 0.05% de Ni et 0.03% de Ti (ces concentrations correspondent à des fractions massiques). Voir les résultats obtenus sur la figure.
Ma question est la suivante : Comment calculer les limites de détection en fraction massique pour les éléments observés et les exprimer en ppm (partie par million) en considérant les raies les plus intenses pour chaque élément ? On pourra noter que le bruit sur la ligne de base est indiqué sur la figure. Je sais que le signal « limite mesurable » est défini par convention par une intensité égale à 3 fois le bruit sur la ligne de base du spectre.
Aussi : combien de temps de mesure faut-il pour obtenir une limite de détection de l'ordre de 1ppm pour la mesure du nickel ?
Merci de vos réponses qui m'aideront beaucoup.
-----