Bonjour ,
j'espère que c'est le coin le mieux adapté pour poser ma question
en lisant un article sur les fibres optiques je n'ai pas très bien compris une partie "calculatoire"
voici l'extrait :
En dépit de ces transparences remarquables, le signal finit, après une certaine distance, par s'affaiblir et par se rapprocher trop du bruit de fond des détecteurs. Au-dessous d'un certain seuil d'énergie, le récepteur devient incapable de distinguer sans ambiguïté les « 0 » des « 1 ». Les standards habituels des télécommunications imposent un maximum d'une erreur par milliard de bits reçus, et cela correspond typiquement à 500 photons par bit. Dans les communications à fort débit, on atteint vite cette limite. Voyons les chiffres : la puissance optique d'une diode laser est de quelques milliwatts, ce qui représente quelque 1016 photons par seconde. A un taux de transmission de 1 Gbit/s, il y a donc 107 photons par bit. On calcule facilement qu'avec une transparence de 95 % par kilomètre le seuil de 500 photons par bit est franchi au bout d'environ 200 kilomètres.
ben pour moi ce 'facilement' n'est pas trés évident
une idée ?
Merci d'avance
-----