Chaînes de Markov discrètes Flashcards

(10 cards)

1
Q

Qu’est-ce qu’une chaîne de Markov ?

A

C’est un processus stochastique où l’état futur dépend uniquement de l’état présent (propriété de Markov).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Qu’est-ce que la propriété de Markov ?

A

P(X_{n+1} = x | X_n, …, X_0) = P(X_{n+1} = x | X_n)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Qu’est-ce qu’un espace d’état ?

A

C’est l’ensemble des états possibles d’une chaîne de Markov.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Qu’est-ce qu’une matrice de transition ?

A

C’est une matrice P où P_{ij} = P(X_{n+1} = j | X_n = i)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Quelles sont les propriétés d’une matrice de transition ?

A

Toutes les entrées sont positives ou nulles, et la somme des lignes vaut 1.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Qu’est-ce qu’un état accessible ?

A

Un état j est accessible depuis i s’il existe un n tel que P(X_n = j | X_0 = i) > 0.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Qu’est-ce qu’un état récurrent ?

A

C’est un état qui sera revisité presque sûrement (la somme des probabilités de retour vaut 1).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Qu’est-ce qu’un état transitoire ?

A

C’est un état qui peut ne jamais être revisité (la somme des probabilités de retour est < 1).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Qu’est-ce qu’un état absorbant ?

A

Un état i tel que P_{ii} = 1 et P_{ij} = 0 pour j ≠ i.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Qu’est-ce qu’une distribution stationnaire ?

A

C’est une distribution π telle que πP = π.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly