Salut à tous,
Est-ce que quelqu'un pourrait m'expliquer pourquoi on utilise des lignes à haute tension pour transporter l'électricité ?
J'ai trouvé sur Wikipédia, que ces lignes permettaient, à puissance constante, de diminuer les pertes par effet Joules (données par R*I^2) en diminuant la valeur du courant.
Mais je n'ai pas compris comment on peut diminuer la valeur du courant en augmentant la tension à puissance constante :
- Si on utilise la puissance aux bornes du fil P=U*I, on voit effectivement que si U augmente, I diminue pour une puissance donnée...
- Mais si les fils sont des conducteurs, pour augmenter U en diminuant I, on a du augmenter la résistance du fil... et donc augmenter l'effet Joule... non ?
Bref, j'y comprend plus rien... Merci à tous ceux qui voudront bien éclairer ma lanterne...!
Sacco
PS : De même, si on utilise la formule P=U^2/R pour la puissance dissipée par une résistance, j'ai l'impression que si j'augmente U comme c'est le cas dans une ligne haute tension, je vais augmenter la puissance dissipée par effet Joule. Je crois que l'erreur vient du fait que les deux paramètres U et R sont reliés par I et je ne le prend pas en compte dans mes raisonnements... mais j'aimerais savoir si quelqu'un pouvait m'expliquer comment il faut raisonner dans ce genre de cas pour être sûr de ne pas faire d'erreur...
-----