Bonjour, voici mon problème :
Je travaille sur des données de débit d'un réseau d'eau potable. Je dispose d'une valeur de consommation par heure chaque jour de l'année et pour chaque secteur de la ville. J'ai regroupé pour chaque secteur les valeurs de l'année entière par heure : je dispose donc d'environ 230 valeurs de débit pour une heure et un secteur donné.
Je suis chargé de trouver un moyen d'utiliser ces données pour mettre en place un système d'alarme signalant une fuite.
La première chose à laquelle j'ai pensé est de calculer la moyenne (m) ainsi que le coefficient de variation (cdv) et de dire que si une valeur mesuré (x) est supérieure à la moyenne + le coef de variation, alors il y a peut-être une fuite :
c'est à dire si x > m + cdv alors il y a une fuite
Mais cette approche me semble trop simple, et je ne pense pas que le coefficient de variation soit un bon indicateur.
Par exemple sur le secteur A à 01h00 la moyenne de l'année 2009 est de 42,8m3 et le cdv de 9,45%. Or 42,8 + 0.0945*42,8 = 46,8 et j'ai sur l'année 2009 une quarantaine de valeur supérieures à 46,7m3.
Alors voila, je suis un peu perdu dans les différentes lois et tests statistiques existants et je commence à désesperer. En fait il me faudrait un moyen de determiner un intervalle de confiance qui n'est pas arbitraire mais qui dependrait de la dispersion de mes valeurs.
Merci d'avance pour vos réponses
-----