Bonjour à tous,
Voila,
L'exercice est assez simple, mais je ne trouve pas le même résultat donné par le corrigé du livre, donc...
"On souhaite projeter une matrice CCD de 2cm sur un écran situé à 3m de celle-ci. Quelle doit être la focale de la lentille de projection pour obtenir une image de 2 mètres?"
- je comprend : image agrandie -> Lentille convergente -> la focal sera positive et le grandissement négatif
je pause, grandissement = g, focal =f', distance objet-image=D, toutes les grandeurs sont algébriques
Soit g = (OA'/OA) = -100 -> OA'=g*OA
Et D=AO+OA'
-> D/OA=(-1+g) donc OA=D/(g-1); (je prend des distances algébriques donc AO/OA=-1)
et f'=(OA'*OA)/(OA-OA') (via relation conjugaison)
Je remplace f'=(g*OA²)/(OA-g*OA)=(g*OA)/(1-g)=(D*g)/[(g-1)(1-g)]=2,94cm
- Le livre ecrit, g=OA'/OA=100 déjà la je suis pas d'accord, car g doit être <0
Ensuite il y a écrit : f'=(g*OA)/(g-1) toujours pas d'accord
Et f'=(g*D)/(g-1)²=3,06cm
Si quelqu'un peut m'éclairer, sans forcement corriger tout l'exercice, mais je comprend pas mon erreur...
Merci d'avance à celui qui aura pris le temps de tout lire
-----