Bonjour,
Pour ceux qui connaissent, comment est calculé exactement la valeur "jitter" qui apparait dans un iperf UDP (sens client -> serveur) ?
NB: si j'avais à le faire, je daterais l'envoi du packet 1 dans le client et insérerais l'horodatage dans le paquet UDP/IP, je daterais ensuite l'arrivée du paquet 1 dans le serveur et je calculerais le delta entre les deux horodatages, pour avoir une référence:
(temps_de_traversée_paquet_1 + Constante_inconnue)
Je ferais pareil avec le deuxième paquet pour avoir:
(temps_de_traversée_paquet_2 + Constante_inconnue), et en déduire:
(temps_de_traversée_paquet_2 - temps_de_traversée_paquet_1), et j'aurais ainsi mon jitter pour le packet 2
Mais ensuite ? pour le paquet 3 je compare avec le transfer 1 ou 2, ou encore, la moyenne ?
Merci,
GBo
-----