Bonjour à tous,
A votre réflexion, je soumets le cas presque simple décrit ci-dessous. J'ai quelques pistes quant à la solution mais j'aimerais votre avis.
Prenons un tuyau souple d'environ 1cm de diamètre et de 2 ou 3 mètres de long, branchons dessus un filtre très simple (un boitier avec une entrée, une sortie), et derrière on remet un autre tuyau similaire (sortie à l'air libre). Branchons tout cela sur une source d'air (environ 10m3/h) avec un débimètre situé à l'entrée et une sonde de pression statique qu'on peut brancher où on veut le long de la ligne ainsi formée. On cherche à mesurer la perte de charge de la ligne en fonction du débit d'air.
Sachant qu'à la sortie du tuyau à l'air libre, on a une pression statique identique à la pression atmosphérique, on peut directement déduire la perte de charge de ce qui est situé entre le point de mesure de pression P=Pm et cette sortie (P=Patm). Cette perte de charge vaut Pm-Patm.
Mettons qu'on trouve environ 30 mbar de perte de charge à température ambiante (20°C).
Pourquoi, lorsqu'on refait le même essai mais avec la ligne placé dans une enceinte climatique à une température plus élevée (85°C) on trouve une perte de charge supérieure ?
Ma première piste a été que le débit mesuré est pris dans une zone où le gaz est "froid" (20°C) puisque venant de la pièce non chauffée, et que ce gaz en circulant dans la ligne chaude se réchauffe, donc le débit volumique augmente et la perte de pression enregistrée correspond en fait à un débit réel plus fort. Cependant, même en corrigeant le débit pour raisonner en débit normalisé (correction avec la pression et la température réelle), la différence subsiste.
Ma deuxième piste est qu'une perte de charge est une perte d'énergie du gaz et que selon les conditions de cette transition thermodynamique, l'état final de pression statique peut être différent (je pense notamment à la différence entre transformation adiabatique et isotherme).
Mais après...je bute
-----