Répondre à la discussion
Affichage des résultats 1 à 12 sur 12

chaine Markov (bis)



  1. #1
    jameso

    chaine Markov (bis)


    ------

    bonjour,

    j'ai encore un problème sur une chaine de Markov: on considere E={1,....N} et Uk une suite de var iid a valeurs dans E de loi uniforme sur E

    on pose Xo=0 et n>=1 Xn=Card{U1,.....,Un}

    je voudrais montrer que Xn est une chaine de Markov et trouver la proba de transition ;

    Mais cette fonction me gène même si je pense qu'il faut utiliser un argument style Xn=f(Un) les Un etant independantes id

    merci pour toute indication

    -----

  2. Publicité
  3. #2
    GuYem

    Re : chaine Markov (bis)

    Salut, peut-être j'ai dit des bétises sur l'autre topic, mais je reviens quand même te répondre !

    Ici je ne comprends pas la définition : X_n = Card{U_1,...U_n}, on dirait que ue X_n est toujours égal à n.
    Bravo jolie Ln, tu as trouvé : l'armée de l'air c'est là où on peut te tenir par la main.

  4. #3
    jameso

    Re : chaine Markov (bis)

    salut,

    c'est bien la mon probleme, je n'arrive déja pas à identifier l'espace des etats ...et à comprendre ce que fait cette chaine

    j'ai omis de préciser qu'on considère la filtration engendrée par les Uk 1<=k<=n

  5. #4
    GuYem

    Re : chaine Markov (bis)

    C'est étrange, on dirait vraiment que X_n fait n puisque c'est le cardinal d'un ensemble à n éléments. Du coup il n'y a plus d'aléatoires et c'est clairement une chaine de Markov.

    Mais l'utilité est restreinte ! Tu es sur de la définition de X_n ?
    Bravo jolie Ln, tu as trouvé : l'armée de l'air c'est là où on peut te tenir par la main.

  6. A voir en vidéo sur Futura
  7. #5
    jameso

    Re : chaine Markov (bis)

    oui je confirme bien X_n=Card {U_1,....,U_n}
    ce qui est bizarre , c'est ce qu'il y a dans cet ensemble...

    J'ai posé la question sur un autre forum et j'ai eu une réponse que je peine à comprendre:

    P(X_n+1=X_n|(X_1,....X_n))=X_n/N

    P(X_n+1=X_n+1|(X_1,....X_n))= 1- X_n/N

    je ne vois pas trop d'ou ça sort mais il semble que la matrice transition soit
    P(i,i)=i/N
    P(i,i+1)=1-i/N
    P(N,N)=1
    mais je ne vois pas d'ou sort les lignes au dessus ???

  8. #6
    GuYem

    Re : chaine Markov (bis)

    Ah oui ça y est j'ai compris !!

    C'est à cause de la distinction entre ensemble et liste !

    Je m'explique, pour fixer les idées disons N=5.
    Je prends 6 réalisations des U et un omega qui fait que
    U_1 = 2
    U_2 = 3
    U_3 = 1
    U_4 = 5
    U_5 = 4
    U_6 = 1
    par exemple.

    Alors X_6 = Card{2,3,1,5,8,1} = Card{2,3,1,5,8} = 5
    Et non pas 6 comme on l'attendait.

    BRef, si il y a de répétitions dans les U, le cardinal peut être plus petit que n.

    Du coup ne peut valoir que ou et la loi de conditionnellement à ses prédecesseurs est bien donnée par ce que tu as rapporté :




    Le première ligne vient du fait que ssi on tombe sur un U déjà sorti auparavant. Hors il y a exactement éléments de E sortis auparavant.
    La deuxième ligne se déduit de la première.

    Cette loi est clairement dépendante seulement de X_n et X est donc bien une chaine de Markov.

    En espérant être clair.
    Bravo jolie Ln, tu as trouvé : l'armée de l'air c'est là où on peut te tenir par la main.

  9. Publicité
  10. #7
    jameso

    Re : chaine Markov (bis)

    merci Guyem

    c'est bon, j'ai compris l'histoire des répétitions...interessant pour comprendre ce qu'est une chaine de markov : ce qui se passe à l'instant n+1 ne dépend que de ce qui se passe à l'instant n !!

    sinon après il ya les questions de classification des états et le comportement asymptotique de la chaine
    je pense que N est recurrent car absorbant et que les autres etats sont transitoires.
    je vais réflchérir au comportement asymptotique...

    amicalement
    jameso

  11. #8
    GuYem

    Re : chaine Markov (bis)

    Je dirais aussi que N est récurrent et que les autres sont transients (transient c'est un peu comme transitoire mais dans le cas espace d'état infini, tu connais ce terme ?)

    Pour le comportement asymptotique, je mets ma main à couper que P(lim X_n = N) = 1
    Bravo jolie Ln, tu as trouvé : l'armée de l'air c'est là où on peut te tenir par la main.

  12. #9
    jameso

    Re : chaine Markov (bis)

    je connais les deux mais j'utilise l'un ou l'autre , à tort peut-être...

    sinon toujours ces histoires de comportement asymptotique qui me posent problèmes
    je pense que tu as raison en disant que Xn converge Px presque surement vers N
    je vois bien que c'est N la seule limite possible car les autres points etant transi.... la chaine ne les visite qu'un nombre fini de fois et il ne peuvent donc pas être val adhérence de la suite
    Mais concernant la cv ps , je sais qu'on utilise souvent un argument avec les martingales : si une fonction f positive (ou bornée) est Pharmonique (ou invariante ie Pf=f) la f(Xn) est martingale bornée ou positive qui converge donc ps

    ici une CNS pour être P-harmonique est f(k+1)=f(k) je pense

    mais le problème est de pouvoir revenir à Xn...

    amicalement
    jameso

  13. #10
    GuYem

    Re : chaine Markov (bis)

    Salut, pour la terminologie, dans le livre que j'ai lu transitoire est reservé aux chaines à espace d'état fini, transient à celles à espaces d'états infini. Ici puisque l'espace d'états s'avèrent être {1,...,N}, transitoire ma parait approprié.

    Pour la convergence il ne me semble pas que ce soit la peine de se casser la tête. A omega fixé, la suite X_n(omega) est clairement croissante, majorée par N. Elle converge (stagne) donc vers une limite <= N, reste à montrer que cette limite est effectivement N pour presque tout omega, ce qui doit se déduire des propriétés des U.
    Bravo jolie Ln, tu as trouvé : l'armée de l'air c'est là où on peut te tenir par la main.

  14. #11
    matthias

    Re : chaine Markov (bis)

    C'est quand même bizarre ton histoire, transitoire et transient ça signifie la même chose, l'un en français, l'autre en anglais.
    Tu es sûr qu'on leur attribue un sens différent dans ce cas ?

  15. #12
    GuYem

    Re : chaine Markov (bis)

    Peut-être je dis des bétises !

    Je me fie à la seule lecture que j'ai faite sur le sujet : Paul S Toulouse, thèmes de probas et de stats pour l'agrégation.

    Ce monsieur y définit un état dit transitoire pour une chaine à espace d'état fini et il dit transient dans le cas infini.
    Bravo jolie Ln, tu as trouvé : l'armée de l'air c'est là où on peut te tenir par la main.

  16. Publicité

Discussions similaires

  1. Chaine de markov
    Par ghoz dans le forum Logiciel - Software - Open Source
    Réponses: 11
    Dernier message: 23/12/2008, 23h51
  2. Chaînes de Markov
    Par sahdow dans le forum Mathématiques du supérieur
    Réponses: 12
    Dernier message: 05/01/2007, 01h19
  3. chaines de markov
    Par gatsu dans le forum Physique
    Réponses: 0
    Dernier message: 28/10/2006, 16h56
  4. convergence chaine de Markov
    Par jameso dans le forum Mathématiques du supérieur
    Réponses: 6
    Dernier message: 27/04/2006, 14h47
  5. chaine de Markov
    Par jameso dans le forum Mathématiques du supérieur
    Réponses: 2
    Dernier message: 01/04/2006, 10h44