Bonjour,

J'ai des petites questions auxquelles je dois répondre mais je ne suis pas du tout sur de mes réponses... Pourriez vous m'aider ? ^^

Le protocole Ethernet prévoit dans son format standard (10 Mb/s) une trame d'une longue comprise entre 64 et 1518 octet.
1) A ce jour les débits utilisés sont 100 Mb/s et 1GB/s, cette augmentation du débit a-t-elle eu une incidence sur la longueur des trames ? Je pense que non (mais je ne vois pas comment justifier...)

2) Quel est le temps nécessaire pour envoyer cette trame minimale ?
Alors après plusieurs produit en croix hehe j'ai trouvé 51,2 microsecondes

3) Quel est le temps nécessaire pour envoyer une trame de longue maximale : J'ai fais la même chose que pour la question du dessus et je trouve 1214,4 microsecondes

4) Combien de trame peuvent être envoyés toutes les secondes ?
Je suis pas sur mais j'ai pris : 1trame minimal -> 51,2 * 10^-6 seconde donc pour 1sec on a 19531,25 trames

Un autre exercice :
Un fichier de 45,20 Ko se charge en 0,16s

1) Sachant que le réseau du département utilise le protocole Ethernet à 100 mb/s calculer le temps théorique du transfert de ce fichier :
du coup j'ai converti 45,20 Ko = 361600 bytes 361600/100Mb = 3,616*10^-3, j'arrive à 3616 microseconde

2) Comparer la valeur observée avec la valeur calculée. Quelle est la différence de temps ? Comment expliquer cette différence ?
On passe de 3616 microseconde à 0,16s, je pense que cela est dû au débit de la connexion ?

Serait-il possible d'avoir un retour sur les résultats si cela paraît absurde ?
Merci d'avance ^^