Définition et exemple d'une matrice de transition de Markov

Processus de Markov financier, licence Creative Commons Attribution-Share Alike 3.0 Unported.





Une matrice de transition de Markov est une matrice carrée décrivant les probabilités de passer d'un état à un autre dans un système dynamique. Dans chaque ligne se trouvent les probabilités de passer de l'état représenté par cette ligne aux autres états. Ainsi, les lignes d'une matrice de transition de Markov s'ajoutent chacune à une. Parfois, une telle matrice est notée quelque chose comme Q(x' | x) qui peut être compris de cette façon : que Q est une matrice, x est l'état existant, x' est un état futur possible, et pour tout x et x' dans le modèle, la probabilité d'aller vers x' étant donné que l'état existant est x, sont dans Q.

Termes liés à la matrice de transition de Markov

  • Processus de Markov
  • Stratégie de Markov
  • L'inégalité de Markov

Ressources sur la matrice de transition de Markov

Rédaction d'une dissertation ou d'un essai au lycée / au collège ? Voici quelques points de départ pour la recherche sur la matrice de transition de Markov :

Articles de revues sur la matrice de transition de Markov