Bonjour
Je croyais bien comprendre la notion de fréquence d'échantillonnage (théo. de Shannon), mais un exercice que j'essaye de faire me prouve que j'ai du mal à la mettre en pratique.
Sujet: Un spectre d'oscillations stellaires. Notre seule donnée est la période d'oscillation minimum de 4 min. On nous demande d'estimer la durée du programme, sachant que l'on veut distinguer des fréquences avec une résolution de 10^-7 Hz.
J'ai plusieurs questions:
1. "distinguer des fréquences avec une résolution de 10^-7 Hz". J'ai du mal à interprèter le sens de cette donnée: ça veut dire qu'on veut utiliser une fréquence d'échantillonnage de 10^-7 Hz?
2. Shannon définit que l'on doit prendre un minimum de 2 données par période, donc une fréquence d'échantillonnage au minimum 2 fois supérieure à la fréquence max du signal (donnée par 1/240): 2 x 4.17 10^-3 = 8.2 10^-3 Hz. Est ce correct?
3. Si le point 2. précédent est correct, comment ça joue avec la résolution de 10^-7 Hz souhaitée? Elle est bien trop petite? Ca ramène à la question 1).
4. Au final, je ne comprend pas vraiment la question car quel est le lien entre ces paramètres et la durée du programme?
Désolée, je fais un gros blocage. Merci par avance de m'aider à mettre tout ça au clair.
-----