Voilà mon problème : je fais depuis quelques semaines des recherches sur le thème de la numérisation des signaux analogiques (en particulier les signaux sonores) et j’ai compris les différentes étapes, à savoir entre autres l’échantillonnage et la quantification.
Dans tous les livres que j’ai vu, je retrouve systématiquement la même imprécision lorsqu’il s’agit d’aborder la transition signal echantillonné/quantifié.
Voilà ce que j’ai compris : pour échantillonner un signal du domaine temporel, on va prélever une suite de valeurs prises par le signal à intervalle de temps régulier tout en respectant la condition de Shannon sur la période d’échantillonnage. Plutôt que d’effectuer directement l’opération en évaluant la fonction du signal à chaque instant de l’échantillonnent, on s’amuse à le faire passer dans le domaine fréquentiel en utilisant la transformée de Fourier du signal d’entrée avec le peigne de Dirac, obtenant ainsi le spectre du signal de sortie périodisé à la fréquence d’échantillonnage .
Jusque là tout va bien, le signal étant échantillonné dans le domaine fréquentiel, même si j’ai du mal à imaginer cette conversion. Sauf que pour l’opération suivante, la quantification, qui consiste à attribuer un code binaire codé en bits à chaque valeur de l’amplitude prise par le signal échantillonné, on travaille sur le signal temporel ( , ce que est facilement concevable visuellement : j’ai du mal à voir comment on pourrait sélectionner de telles valeurs sur un spectre …
D’où la question qui me turlupine depuis quelques temps : pourquoi donc faire appel à tous ces outils mathématiques pendant l’échantillonnage si c’est pour ensuite effectuer la quantification sur le signal temporel ? (peut être est-ce un choix didactique dans les livres qui ne correspond pas à la pratique en informatique) et aussi, comment, si ça existe, effectuer une quantification sur le signal fréquentiel, pour rester dans la continuité de l’échantillonnage que j’ai explicité ?
-----