Bonjour
Je cherche à calculer l'erreur liée à un changement de quantification.
L'idée est celle-ci :
- des valeurs sont quantifiées avec un pas de 'q'.
- ces dernières valeurs quantifiées sont ensuite re-quantifiées avec un pas de 'r'. (q et r sont indépendants)
=> Quel est le bruit liée à cette succession de quantification ?
La documentation que j'ai trouvée, ne parle que de la première quantification, où l'erreur de quantification est équi-répartie sur l'intervalle q (densité de probabilité P(x) égale à 1/q). Dans ce cas, la variance peut être calculée (), et l'écart-type devient
Pour la seconde quantification, l'erreur n'est plus équi-répartie sur l'intervalle r, puisque les valeurs ont désormais une résolution égale à q. Du coup, je ne parviens pas à formuler P(x) et donc à calculer la variance. Faut-il passer par des peignes ?
Merci pour votre aide
-----