Bonjour !
Je suis étudiant et je cherche à valider des calculs théoriques je m'explique :
J'ai une carte RF je veux valider un setup de test.
J'injecte une puissance d'entrée ici 0dBm. Je vérifie avec deux analyseurs de spectre calibrés et révisés qui me confirme que mon niveau injecté est correct je mesure -0.09dBm et -0.06dBm.
Je m'intéresse aux tensions sur la carte : je mesure à l'aide d'un oscillo' et une sonde je mesure la tension qui sort de mon câble. Théoriquement je devrais mesurer 316mV (je me place en crète à crète ) pour un niveau de 0dBm. Or avec l'oscilloscope je mesure une tension de 160mV (toujours en crète à crète). Soit presque la moitié.
Je cherche à comprendre d'où vient cet écart... Pour les réglages de l'oscilloscope : x1, coupling DC 50 Ohms ( car pas de charge derrière mon câble).
J'ai écarté le défaut de l'oscillo pour son impédance: j'ai connecté une charge de 50 Ohms et mesuré avec le même oscillo sur 1 MOhms j'ai le même résultat: 160mV.
Je n'ai aucune idée d'où peut venir mon erreur, j'ai besoin d'avis extérieurs des idées ou conseils pour mes mesures?
Merci d'avance et de m'avoir lu!
-----