Bonjour,
J'ai réalisé un TP il y a peu de temps où le but était de mesurer l'absorption de particules gammas en fonction de l'épaisseur de différents matériaux, avec pour finalité de déterminer le coefficient d'atténuation, et ceci avec des gammas d'énergies différentes. On a utilisé un détecteur au germanium ultra-pur pour faire les mesures.
Une question du protocole me pose néanmoins soucis. On nous demande pourquoi on utilise généralement un détecteur au germanium pour détecter les rayonnements gammas et non un détecteur au silicium, qui est aussi un semi-conducteur, tout en justifiant cela à partir des résultats expérimentaux qu'on a obtenu.
On nous demande également d'expliquer pourquoi l'efficacité de détection d'un détecteur avec cristal de germanium diminue quand l'énergie des gammas augmente.
J'avoue déjà ne pas avoir bien saisi comment fonctionnait ce détecteur. De ce que j'en ai plus ou moins retenu, les gammas vont venir arracher les électrons du semi-conducteur, créant ainsi des porteurs libres, qui vont être attirés par l'électrode positive du détecteur (ce détecteur étant polarisé à haute tension), et crée ainsi un courant qui va pouvoir être analysé.
Quelqu'un peut m'aider à éclaircir tout ça ? Merci d'avance.
-----