Bonjour, j´ai une queston concernant un théorème de mon cours dont la simplicité m´intrigue. Il est dit:
Soit (Xn) une suite de v.a.r. et Sn leur somme. Alors si Sn converge en probabilité, alors elle converge aussi en loi.
Il n´est pas donné de démonstration, mais ça m´a l´air presque trop beau, trop simple (apparement aucun condition sur Xn) pour être vrai.
Est-ce possible?
En fait il s´agit d´un exo que j´aimerais vous soumettre car ma démarche est apparement complètement différente de celle du corrigé:
Soit une suite Xn de v.a.r. indépendantes et de même loi:
f(x) = 1/2 exp(abs(x))
Soit Tn = (somme des Xn).n-2.
Montrer que Tn converge p.s.
Le corrigé part de la définition de la convergence p.s. mais moi je suis passé par les fonctions caractéristiques: en effet la f.c. de Xn est:
ux(t) = (1+t2)-1.
Donc comme les v.a.r. sont indépendantes, la somme Sn a pour f.c:
uS(t) = (1+t2)-n.
Et celle de Tn a pour est:
uT(t) = uS(t/n2) = (1+t2)-n.
Bref, la f.c. de Tn converge vers 1, j´en déduit que Tn converge en loi vers 0.
À partir de là, c´est là que ça se corse:
J´ai trouvé un théorème comme quoi si des v.a.r. sont définies sur un même espace probabilisé et convergent en loi vers une constante, alors la convergence a lieu aussi en probabilité.
Est-ce si simple?
Donc ma Tn convergerait en proba vers la v.a.r. constante 0 et comme c´est une somme de variables, la convergence serait aussi presque sûre.
Bref, je suis très peu sûr de moi car je ne manipule pas trop ces convergences.
Si quelqu´un trouve un hic, je suis prenant.
Merci d´avance.
Christophe
-----