Bonjour à toutes et à tous,
Je suis à la recherche d'idées concernant un problème d'estimation d'une erreur de prédiction. Je vous explique en détails:
J'utilise un modèle basé sur l'équation:
t = 1/b.[log((y-c)/delta) - a]
ou le but est de prédire un temps t à partir de y et des paramètres a,b,c estimés lors d'une régression non linéaire (delta étant fixé).
A partir des temps obtenus en fonction du vecteur y, j'aimerais obtenir une erreur de prédiction (:"t +- quelque chose"). Pour cela j'ai eut recours à MonteCarlo ou j'ai tiré a2,b2,c2 (10000 tirages) dans des lois normales et ou j'obtient donc un ensemble de dates t2.
Jusque la, tout fonctionne bien: la médiane et la moyenne de t2 sont stables. Mon problème vient du fait que je pensais à l'intervalle de confiance (IC) pour estimer l'erreur, seulement t2 ne semble pas du tout suivre une loi normale et après discussions, il semble que l'on puisse difficillement y appliquer l'IC notamment à cause des valeurs extremes aux extremes (5% et 95% de l'IC, due au log, et en fct inverse à l'exp).
On se retrouve donc dans une hypothèse non paramétrique ou l'une des 2 variables c'est le temps (donc qui n'est pas aléatoire....).
Ma question est la suivante : existe-t-il une autre méthode que l'IC, pas trop bricolo métholodiquement parlant, permettant d'estimer cette erreur de prédiction (+-quelque chose) en prenant en compte les risques de variabilité extrêmes aux extrêmes et l'hypothèse que nous suivons une loi inconnue ? Ou est-ce que ca fait un peu trop "massage" niveau méthodo ?
Je pense qu'il faut chercher vers des modélisations spécifiques en fonction du temps, mais je ne trouve rien à ce sujet.
Je suis ouvert à toute suggestion et remarque.
Merci pour vos idées!
Gian
-----