Bonjour, voici l'énonce
On souhaite déterminer la concentration du colorant jaune de tartrazine dans le sirop de menthe par dosage spectrophotométrique . Pour préparer l’échelle de teintes , on dispose d’une solution mère de jaune de tartrazine à une concentration massique C0 = 25 mg . L –1*; on réalise 20 mL de chacune des solutions inscrites dans le tableau et on mesure leur absorbance A à une même longueur d’onde .
Je ne vais pas écrire tout le tableau mais seulement le décrire :
Il y a 6 solutions filles et pour chacune, on a la concentration massique et l'absorbance de la solution.
La 1ère: C massique (mg.L) = 5 et A = 0,27
La 2ème: C massique = 10 et A = 0,50
La 3ème: C massique=12,5 et A=0,61.
Ainsi de suite jusqu'à la 6ème solution fille. On voit donc que A et C massique ne cessent d'augmenter quand on continue de diluer.
Donc la loi de Beer-Lambert est vérifiée car A=kC. D'ailleurs, en traçant la fonction A=f(C) on a une droite qui passe par l'origine du repère.
PROBLEME: Sous le tableau, il est écrit que après avoir dilué le sirop 10 fois, on obtient une absorbance A=0,65 !!! Comment est-ce possible ?!
Plus on dilue, plus l'absorbance augmente et là, après la 10ème dilution, A a une valeur inférieur à celle prise pour la 4ème dilution..
Je ne comprend pas Quelqu'un peut-il m'éclairer ?
-----