Bonjour,
dites moi si mon raisonnement est correct pour commencer parce que ça fait des lustres que je n'ai plus fait d'électricité :
voilà... j'aimerai réaliser un petit montage de 150 Leds 5mm qui tournent à 3.6V et demandant 20mA.
Je comptais prendre un transformateur 12V que l'on branche au secteur, et capable de fournir 1000mA.
Le montage je le voyais comme ça :
50 branches en parallèle de 3 LEDs en série.
Mais comme 3 LED de 3.6V ça donne 10.8V, les 12V du transformateurs vont les faire griller.
Il me faut donc mettre une résistance.
Pour ce faire, je peux calculer une résistance comme suit :
Delta_V = 12-10,8 = 1,2 V => Résistance de 1,2 V / 0.02 A = 60 Ohm.
Mais il me faudrait en mettre 50 : une sur chaque branche, avant les LEDs.
Je pensais donc en mettre une "avant" toutes les branches.
Dans ce cas, il me faudrait une résistance de 1,2 V / (50*0.02A) = 1,2 Ohm.
Sur les notices des résistances, je vois écris des Watt...
Curieux. Je me dis qu'il doit s'agir de la puissance maximale qu'elle peuvent encaisser avant de commencer à trop chauffer et fumer / griller.
Ma question est, dans le cas d'une unique résistance de 1,2 Ohm avant toutes les branches de LEDs; comment se calcule cette puissance ?
A l'aide de la relation P = U²/R je peux trouver les Watts, mais qu'utiliser comme U ? La tension délivrée par le transformateur (12V) ou la tension "qui traverse juste la résistance" (1,2V) ?
Intuitivement je dirais 1,2V => 1,2²/1,2= 1,2 Watt, or je ne trouve pas de résistance à plus d'1W !
Y a-t-il une erreur quelque part...?
Et à l'aide de cette relation-ci ? : P = U*I ... dans le cas de U = 1,2V on aurait P = 1.2V * I mais ce I, est-ce que c'est le I qui va traverser les LED ? Donc 1 Ampère ?
Merci pour vos explications et lumières...
-----