Bonjour à tous,
J'ai une question qui pourra sembler bête à certains calés dans le domaine. Je travaille actuellement sur un prototype de chauffage ohmique entièrement développé par un électronicien dans notre labo. J'ai fait les calculs de différents rendements, dont le rendement de l'installation en elle-même (quantité d'énergie délivrée par les électrodes, mesurée par l'automate qui fait la régulation, par rapport à la quantité d'énergie consommée sur le réseau, déterminée par un wattmètre).
Sans entrer dans les détails, le dispositif est constitué d'un autotransfo, d'un transfo d'isolation, et d'un automate qui fait une régulation PID par train d'onde à l'aide d'un relais statique (plus diverses petites mesures, transformateurs de courant, conditionneurs analogiques etc.).
J'obtiens déjà un rendement relativement faible. Mais il augmente lorsque j'augmente la tension imposée : il passe d'environ 0,4 à 0,7 pour des tensions de 20 à 80 V. Ma question est : pourquoi ? Est-ce que le fait d'augmenter la tension permet au transfo de "travailler" de manière plus efficace ? Ou bien autre chose ?
Je précise que je parle bien de rendement électrique, les rendements thermiques sont déterminés autrement.
Merci d'avance pour vos réponses !
-----