Chaînes de Markov discrètes Flashcards
(10 cards)
Qu’est-ce qu’une chaîne de Markov ?
C’est un processus stochastique où l’état futur dépend uniquement de l’état présent (propriété de Markov).
Qu’est-ce que la propriété de Markov ?
P(X_{n+1} = x | X_n, …, X_0) = P(X_{n+1} = x | X_n)
Qu’est-ce qu’un espace d’état ?
C’est l’ensemble des états possibles d’une chaîne de Markov.
Qu’est-ce qu’une matrice de transition ?
C’est une matrice P où P_{ij} = P(X_{n+1} = j | X_n = i)
Quelles sont les propriétés d’une matrice de transition ?
Toutes les entrées sont positives ou nulles, et la somme des lignes vaut 1.
Qu’est-ce qu’un état accessible ?
Un état j est accessible depuis i s’il existe un n tel que P(X_n = j | X_0 = i) > 0.
Qu’est-ce qu’un état récurrent ?
C’est un état qui sera revisité presque sûrement (la somme des probabilités de retour vaut 1).
Qu’est-ce qu’un état transitoire ?
C’est un état qui peut ne jamais être revisité (la somme des probabilités de retour est < 1).
Qu’est-ce qu’un état absorbant ?
Un état i tel que P_{ii} = 1 et P_{ij} = 0 pour j ≠ i.
Qu’est-ce qu’une distribution stationnaire ?
C’est une distribution π telle que πP = π.