Inscription / Connexion Nouveau Sujet
Niveau Maths sup
Partager :

algorithme de simulation d'une chaine de Markov

Posté par izaabelle (invité) 08-07-07 à 20:23

bonsoir à tous

j'étais entrain de chercher à comprendre comment faire pour simuler une chaine de Markov mais je n'y arrive pas du tout! en faisant des recherches sur le net, je ne trouve que des progerammes complexes écrit dans des logiciels bien spécifiques. mais il me faut lalgorithme en pseudo code.

je bloques totalement depuis plusieurs jours et je me suis dit de tenter ma chance sur le forum. donc ma question: quel est l'algorithme qui permet de simuler une chaine de Markov à temps discret étant donné sa loi initiale, son espace d'état (fini ou dénombrable) et sa matrice de transition? ces trois élèments décrivent ils entièrement la chaine?

voilà, jattends vos réponses avec impatience. un grand merci

Posté par
stokastik
re : algorithme de simulation d'une chaine de Markov 08-07-07 à 20:44

Citation :
une chaine de Markov à temps discret étant donné sa loi initiale, son espace d'état (fini ou dénombrable) et sa matrice de transition? ces trois élèments décrivent ils entièrement la chaine?


Tout à fait

Pour simuler ta chaîne de Markov (X_0, X_1, \ldots, X_n, \ldots) c'est très simple :

- tu vas déjà simuler X_0 (je vais t'expliquer comment)
- une fois que tu as simulé X_n, tu vas simuler X_{n+1}

Disons que l'espace d'état est composé de N états. Tu peux numéroter ces états et ainsi ça revient à dire que les états sont 1, 2, \ldots, N.

Tu as la loi de X_0, c'est-à-dire que tu as les probabilités p_0=P(X_0=1), \ldots, p_N=P(X_0=N).

Il faut donc simuler un nombre aléatoire dans \{1, 2, \ldots, N\}
qui prend la valeur k avec probabilité p_k.

Sais-tu faire ça ?

Ensuite c'est pareil. Quand tu as simulé X_n et que le résultat est i, alors la loi de X_{n+1} est donnée par p_{i1)=P(X_{n+1}=1 | X_n=i), \ldots, p_{iN}=P(X_{n+1}=N | X_n=i), ces probabilités sont la i-ième ligne de la matrice de transition.

Posté par izaabelle (invité)re : algorithme de simulation d'une chaine de Markov 08-07-07 à 20:53

stokastik tu sais que t'es mon héros

j'ai bien compris la méthode à suivre, mais je ne sais pas simuler la loi initiale , enfin je sais comment faire mais je n'arrive pas à l'écrire sur papier. comme je l'ai dit il me faut que du pseudo code, sans vraiment me soucier s'il est "exécutable" ou pas ^^' . mais si j'ai bien compris, quand tu dis: Il faut donc simuler un nombre aléatoire dans
qui prend la valeur k avec probabilité pk
il suffira donc de faire un appel à Random pour prendre un éléments k entre 1 et N, mais que veut dire avec la probabilité pk? j'avais déjà eu l'occasion de lire un truc du genre quelque part "affecter i à Xn et choisir j avec la proba Pij" enfin un truc comme ça.

en conclusion, pour répondre à ta question: non je ne sais pas la simuler .

Posté par
stokastik
re : algorithme de simulation d'une chaine de Markov 08-07-07 à 20:57

Google : "simuler loi discrete" tu as essayé ?

Posté par izaabelle (invité)re : algorithme de simulation d'une chaine de Markov 08-07-07 à 21:04

nan j'ai essayé "simuler chaine de Markov" et "simuler variable aléatoire" ^^' sur ce je m'en vais essayer avec "loi discrète" merci stokastik

Posté par
stokastik
re : algorithme de simulation d'une chaine de Markov 09-07-07 à 18:07

Tu t'en es sorti je suppose ? T'as compris le principe pour simuler ?

Posté par Mali (invité)Simulation de l'évolution d'une chaine de Markov 06-08-07 à 15:36

Bonjour,
Je dois écrire un programme qui simule l'évolution d'une chaine de Markov au cours du temps et qui calcule sa distibution stationnaire dans le cas discret (soit en C++ ou en Java).
Je ne sais pas par quoi commencer, y a-t-il quelqu'un qui pourra m'aider SVP.

Posté par
stokastik
re : algorithme de simulation d'une chaine de Markov 06-08-07 à 15:48

Salut,

D'abord, quel problème as-tu pour simuler ? Les explications de ce topic ne te suffisent pas ?

Posté par Mali (invité)re : algorithme de simulation d'une chaine de Markov 06-08-07 à 16:48

Salut stokastik,
mon 1er problème c'est que je suis quasi-nulle en informatique.
pour la matrice de transition, est ce que c'est un choix alèatoire (comme la distribution initiale)ou c'est programmable?

Posté par
stokastik
re : algorithme de simulation d'une chaine de Markov 06-08-07 à 20:54

Citation :
pour la matrice de transition, est ce que c'est un choix alèatoire (comme la distribution initiale)ou c'est programmable?


comprends pas... une chaîne de Markov est définie par 2 choses : une distribution initiale, et une matrice de transition dont les coefficients représentent la probabilité de passer d'un état à un autre état.

Si tu n'as pas compris ça, il faudrait commencer par ça.

Posté par Mali (invité)re : algorithme de simulation d'une chaine de Markov 07-08-07 à 15:04

Merci pour la réponse,
Je commence à compredre. J'ai encore d'autres questions:
Soit le vecteur 1xm donnant la distribution stationnaire de la chaine de Markov. Comment résoudre le système suivant:
P =  
1 = 1
Merci d'avance

Posté par
stokastik
re : algorithme de simulation d'une chaine de Markov 07-08-07 à 17:53

Comment ça comment le résoudre ? A la main ou avec un ordinateur ? Et as-tu au moins des exemples d'exercices où on fait ça ?

Posté par
ReseauPetri
re : algorithme de simulation d'une chaine de Markov 28-11-08 à 02:57

mali avec la distribution stationnaire faut connaitre aussi que la somme des ets egale a 1 par emple on a 3 distribution 1+2+3=1

et le calclul de cette distribution sera le muliplier par la matrice de transition après surement t'aura une solution avec 4 equiations si on prends le cas de trois etats aller je te souhaite bon courage



Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Inscription gratuite

Fiches en rapport

parmi 1675 fiches de maths

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !