Répondre à la discussion
Affichage des résultats 1 à 7 sur 7

Chaine de Markov



  1. #1
    Le Vince

    Chaine de Markov


    ------

    Bonjour,

    J'essaie de résoudre l'exercice suivant :

    Soit {X_n, n >=0} une chaîne de Markov de matrice de transition P.
    Supposons que X_0 = i et définissons b_i l'instant de premier départ de l'état i.
    Déterminer la loi de b_i.


    Je cherche donc P(b_i = t)

    Je suppose que cette probabilité doit dépendre de la ié ligne de la matrice de transition, mais je ne vois pas du tout comment commencer

    quelqu'un pourrait-il m'aider?

    Merci

    -----

  2. #2
    Le Vince

    Re : Chaine de Markov

    en fait j'avais pensé à la chose suivante.

    soit (Pi1, .... Pin) la ie ligne de la matrice de transition P.

    On sait que Pij est la probabilité de passer de l'était i à l'état j, par définition de P.

    donc je me suis dit, passons à l'événement complémentaire :

    la probabilité de rester en i est : Pii / 1-Pii (car Pi1 + Pi2 + ... Pin = 1)

    (déja ici petit problème, rien ne m'assure que Pii/1-Pii est >1 ??? ou oui?)

    et donc la réponse recherchée serait 1- Pii/1-Pii = 1-2Pii/Pii

    mais ce raisonnement me semble foireux.

  3. #3
    Romain-des-Bois

    Re : Chaine de Markov

    Bonjour,

    On a donc et désigne le coefficient de la matrice de transition.

    Si alors on a p.s. et donc p.s.

    Si alors p.s et

    Si , on a :


    donc





    ainsi de suite :


    suit la loi géométrique de paramètre .

  4. #4
    Garf

    Re : Chaine de Markov

    La probabilité de rester dans l'état i, quand on y est, est évidemment la probabilité de passer de l'état i à l'état i. Soit , rien de plus.

    Edit : trop lent

  5. A voir en vidéo sur Futura
  6. #5
    Romain-des-Bois

    Re : Chaine de Markov

    Citation Envoyé par Le Vince Voir le message
    la probabilité de rester en i est : Pii / 1-Pii (car Pi1 + Pi2 + ... Pin = 1)
    Beh non. La probabilité de rester en c'est par définition.

    (déja ici petit problème, rien ne m'assure que Pii/1-Pii est >1 ??? ou oui?)
    Cette remarque m'inquiète un peu... Une probabilité est comprise entre et .

  7. #6
    Le Vince

    Re : Chaine de Markov

    Pour la proba plus grande que 1

    je me suis trompé (faute de frappe) je voulais évidemment mettre < 1

  8. #7
    Le Vince

    Re : Chaine de Markov

    Merci Romain, finalement le raisonnement n'était pas si difficile à établir, il fallait juste y penser.

    Merci

Discussions similaires

  1. chaine de Markov
    Par chwebij dans le forum Mathématiques du supérieur
    Réponses: 4
    Dernier message: 03/06/2009, 21h15
  2. Chaine de markov
    Par ghoz dans le forum Logiciel - Software - Open Source
    Réponses: 11
    Dernier message: 24/12/2008, 00h51
  3. Chaîne de Markov
    Par invite43219988 dans le forum Mathématiques du supérieur
    Réponses: 1
    Dernier message: 18/08/2008, 22h54
  4. chaine Markov (bis)
    Par jameso dans le forum Mathématiques du supérieur
    Réponses: 11
    Dernier message: 30/04/2006, 17h17
  5. chaine de Markov
    Par jameso dans le forum Mathématiques du supérieur
    Réponses: 2
    Dernier message: 01/04/2006, 11h44