Salut !
J'ai fait un TP sur les fibres optiques et j'ai quelques problèmes avec mes résultats.
On me demande de mesurer une tension à la sortie de fibres optiques de différentes longueurs, le tout avec une source (c'était une diode) à Lambda=560 nm. Ensuite je trace une courbe et j'en déduit l'atténuation linéique. Puis on recommence avec 660nm et 940 nm.
Premier problème : mes courbes sont absolument affreuses (on devrait avoir des droites et le coeff de régression linéaire est du genre 0,97).
J'arrive à atténuer ce problème en suprimant quelques points abérants mais on arrive au...
Deuxième problème : je trouve que l'atténuation linéique augmente avec la longueur d'onde : A(560)=0,10 ; A(660)=0,13 et record, A(940)=2,4.
Or, j'ai trouvé sur internet qu'une fibre optique devrait avoir le comportement inverse. C'est à dire que l'atténuation linéique devrait être minimale dans l'IR.
Précision : la valeur théorique de A pour 660nm est de 0,22 dB/m (donnée avec les fibres optiques du TP)
Moi, j'ai l'impression que la valeur à 940nm est complètement fausse. et que les autre ne sont pas beaucoup mieux.
Qu'en pensez vous ?
Pourriez vous me dire, déja, si l'atténuation linéique de toutes les f.o. augmente quand lambda diminue ?
Merci bien.
-----