Bonjour à tous,
J'ai une super idée (= pourquoi ça marche pas ?):
Actuellement, pour paller aux contraintes de bouger (de l'optique en photographie ou de l'atmosphère en astronomie), on a développé des "optiques adaptatives mécaniques" ou des capteurs envoient en temps réel des information à un objet physique (capteur, miroir, lentille) pour compenser le flou induit par une turbulence ou un mouvement involontaire du capteur.
=> dans les faits, on focalise une image fixe sur le capteur, et on compte le nombre de photons, pour chaque pixel, sur une durée T.
Il existe à mon sens une autre technique d'optique adaptative : l'optique adaptative logicielle : l'image est toujours focalisée sur le capteur, mais il n'y a pas de compensation mécanique du mouvement. Le capteur au lieu de faire une seule photo, prend alors, disons 250 photos/seconde. c'est à dire que dans les fait, chaque photo est nette (faible temps de pose) et très peu lumineuse. Chacune de ces photo est quasi identique, aux bougers près, qui font que chaque image est légèrement décalée par rapport aux autres.
=> dans ce cas, chaque image étant fixe, il est alors possible logiciellement de corriger les décalages en se basant sur les points les plus lumineux. Normalement toutes les images devraient parfaitement se supeposer. Ensuite une somme pour chaque pixel des intensités permettrait de retrouver la luminosité du premier exemple.
=> D'où ma question : pourquoi ce procédé n'est-il pas utilisé ?
Merci pour vos réponses,
@+
-----