Bonjour,

Je ne suis pas sûr d'avoir bien compris la différence entre convergence presque sure (ou encore convergence presque partout) et la convergence en probabilité (ou encore convergence en mesure)

Par exemple peut-on définir ces deux convergences de la façon suivante:

Soient:
(w,H,P) un espace probabilisé
(Xn) une suite de variables aléatoires à valeurs dans un espace métrique mesurable (c'est à dire muni d'une distance d et d'une tribu).

Ma définition de la convergence en probabilié de Xn vers X:
P({w; pour tout e >0, limnd(X(w), Xn(w)) >e}) = 0

Ma définition de la convergence presque sure de Xn vers X:
limn P({w; d(X(w),Xn(w) #0)}) = 0
(# =différent)

Ces définitions supposent que l'ensemble de valeurs soit un espace mesurable et métrique, nécessaire pour définir une convergence. Ce point n'est jamais précisé explicitement dans les manuels...

Une autre question:
La convergence ps implique la convergence en prob (l'inverse n'est pas vrai).
Je suppose que cette implication suppose que l'on ait choisi la même métrique sur l'espace de valeurs pour définir les deux types de convergences ?

Merci pour quelques avis sur ce sujet.