Inscription / Connexion Nouveau Sujet
Niveau Prepa (autre)
Partager :

Chaîne de Markov

Posté par
ardea
30-07-25 à 09:07

Bonjour,

Je bute sur la question 4. (b), j'ai l'impression qu'il manque une hypothèse à l'énoncé (le fait que ΔXn+1 ne dépend que de ΔXn et pas des v.a. avec indice inférieur ou égal à n-1), ou alors je n'ai bien compris. J'ai réussi toutes les questions précédentes.


On considère un mobile qui se déplace le long d'un axe horizontal. On note Xn∈Z sa position au temps n∈N, et on suppose que sa position initiale est X0=0. On suppose que ΔXn=Xn+1−Xn∈{−1,1} pour tout n∈N et que les probabilités conditionnelles sont données par :

P(ΔXn+1=1∣ΔXn=1)=1/2+ϵ

P(ΔXn+1=1∣ΔXn=−1)=1/2−ϵ


où ϵ ∈ [0,12] est un réel fixé.

    1.Pour n∈N, on pose pn=P(ΔXn=1). Exprimer pn+1​ en fonction de pn​. Dans toute la suite de l'exercice, on suppose que p0=1.

    2. Soit n∈N. Écrire pn​ en fonction de n. En déduire E(ΔXn​).

    3. Soit n∈N. Calculer E(Xn​) en fonction de n.

   4. Soit n∈N. Le but de cette question est de calculer V(Xn​) en fonction de n.
    (a) Soit i∈N. Calculer V(ΔXi​) en fonction de pi​.
    (b) Soit (i,j)∈N² tel que i≠j. Calculer cov(ΔXi​,ΔXj​).
    (c) Déduire des deux expressions précédentes V(Xn).

Posté par
verdurin
re : Chaîne de Markov 30-07-25 à 17:15

Bonsoir,
dans une chaîne de Markov la connaissance de l'état n suffit pour déterminer le calcul des probabilités pour l'état n+1. Ça ne veut pas dire que l'état n+1 est indépendant de tous les états précédents.
Par exemple quand tu as calculé pn en fonction de n tu as dû utiliser p0=1.
En reprenant le même calcul tu peux calculer P(Xi+k=1|Xi=1) et P(Xi+k=1|Xi=-1) en fonction de k.

Posté par
ardea
re : Chaîne de Markov 31-07-25 à 15:57

Bonjour,

Merci pour ta réponse.

Je n'arrive pas à calculer  P(X_{i+k}=1|X_{i}=1) et  P(X_{i+k}=1|X_{i}=-1).

J'avais calculé p_{n} en utilisant une récurrence simple et j'ai trouvé :

p_{n} = \frac{1}{2}(1+(2\varepsilon)^{n})

J'ai essayé d'utiliser la formule des probabilités totales :

p_{i+k} =  P(X_{i+k}=1) =   P(X_{i+k}=1|X_{i}=1)p_{i} +  P(X_{i+k}=1|X_{i}=-1)(1-p_{i})

Posté par
ardea
re : Chaîne de Markov 31-07-25 à 16:56

Je ne sais pas si c'est juste :

P(X_{i+k}=1|X_{i}=1) = P(X_{i+k}=1|X_{i} = 1 \bigcap{}X_{i+k-1} = 1)P(X_{i+k-1}=1) + P(X_{i+k}=1|X_{i} = 1 \bigcap{}X_{i+k-1} = -1)P(X_{i+k-1}=-1)

Comme X_{i+k} ne dépend que de X_{i+k-1}, on a :

P(X_{i+k}=1|X_{i}=1) = P(X_{i+k}=1|X_{i+k-1} = 1)P(X_{i+k-1}=1) + P(X_{i+k}=1|X_{i+k-1} = -1)P(X_{i+k-1}=-1) = p_{i+k-1} + \frac{1}{2} - \varepsilon

Posté par
verdurin
re : Chaîne de Markov 01-08-25 à 17:53

Bonsoir,
je te présente mes excuses pour une réponse aussi tardive.
Ma suggestion n'était pas très bonne.
Tu as sans doute montré à la question 1. que p_{n+1}-\frac12=2\varepsilon\bigl(p_n-\frac12\bigr).

On en déduit facilement que p_{i+k}-\frac12 =(2\varepsilon)^k\bigl(p_i-\frac12\bigr).

Posté par
ardea
re : Chaîne de Markov 02-08-25 à 20:20

Bonsoir,

Pas de souci, c'est les vacances, je comprends. Merci pour ton aide.

Je n'arrive pas à relier ta deuxième proposition au calcul de la covariance.

J'ai surtout un problème pour calculer E(ΔXiΔXj). Si je pose j = i + k, je devrais quand même calculer les espérances conditionnelles en utilisant la formule de l'esperance d'un produit...

Merci d'avance.

Posté par
verdurin
re : Chaîne de Markov 05-08-25 à 17:52

Toujours en retard, mais en espérant être utile.

On a P(\Delta X_{i+1}=1\,|\,\Delta X_{i}=1)=\frac12+\varepsilon.
On part donc avec p_{i+1}=\frac12+\varepsilon et on arrive à :

P(\Delta X_{i+k}=1\,|\,\Delta X_{i}=1)=\frac12+\bigl(\frac12+\varepsilon-\frac12\bigr)(2\varepsilon)^{k-1}=\frac{1+(2\varepsilon)^{k}}2.

Et on calcule de la même façon P(\Delta X_{i+k}=1\,|\,\Delta X_{i}=-1) en prenant p_{i+1}=\frac12-\varepsilon.

Posté par
ardea
re : Chaîne de Markov 06-08-25 à 11:48

Bonjour,

Je ne comprends pas pourquoi p_{i+1} = \frac{1}{2} + \varepsilon.

Merci pour ton aide.

Posté par
verdurin
re : Chaîne de Markov 06-08-25 à 15:47

On se place dans le cas où \Delta X_i=1.
Par définition des probabilités conditionnelles on a P(\Delta X_{i+1}=1)=\frac12+\varepsilon

Posté par
ardea
re : Chaîne de Markov 07-08-25 à 12:02

Aaah, je comprends mieux. Pour l'autre cas on trouve :

P(\Delta X_{i+k} = 1 | \Delta X_{i} = -1) = \frac{1-(2\varepsilon)^{n}}{2}

Puis, en utilisant la formule de l'espérance d'un produit, on trouve :

E(\Delta X_{i+k}\Delta X_{i}) = (2\varepsilon)^{k}

Finalement, on obtient la covariance pour i \neq j :

Cov(\Delta X_{i}, \Delta X_{j}) =  (2\varepsilon)^{|j-i|} - (2\varepsilon)^{i+j}

Pour le calcul de V(X_{n}), j'utilise la formule :

\mathrm{V}\left(\sum_{i=0}^{n-1} X_i\right) = \sum_{i=0}^{n-1} \mathrm{V}(X_i) + 2 \sum_{0 \le i < j \le n-1} \mathrm{Cov}(X_i, X_j)

Et on trouve :

V(X_{n}) = n - \frac{1-(2\varepsilon)^{n}}{1-(2\varepsilon)} + 2\sum_{0\leq i <j\leq n-1}^{}{((2\varepsilon)^{j-i} - (2\varepsilon)^{i+j}})

Une dernière question me demande de calculer la limite en+\infty de E(X_{n}) et V(X_{n}) et d'interpréter.

C'est assez simple pour E(X_{n}) je trouve :

\lim_{n\rightarrow +\infty}E(X_{n}) = \frac{1}{1-2\varepsilon}

Pour  V(X_{n}), j'ai essayé de simplifier la somme obtenue en utilisant les propriétés des sommes doubles et j'ai obtenu un truc assez indigeste mais dont la limite est simple à calculer et vaut :

\lim_{n\rightarrow +\infty}V(X_{n}) = +\infty

Pour l'interprétation en revanche... la moyenne du déplacement du mobile est constante alors que l'écart à la moyenne tend vers l'infini (vitesse moyenne constante avec accélération et décélération ?)

En tout cas merci beaucoup verdurin, ton aide m'a été vraiment utile, j'étais bloqué depuis un moment !

Posté par
verdurin
re : Chaîne de Markov 07-08-25 à 17:01

Je suis d'accord avec tes résultats et je dois avouer que je n'ai même pas essayé de calculer la variance de Xn.

En ce qui concerne l'interprétation :
— La limite de l'espérance est supérieure à 1 ( égale à 1 si =0 ) ce qui est normal car le processus aléatoire commence en 1 et que le sens positif est avantagé par 0=1. L'avantage est d'autant plus grand que est proche de 1/2.
— Le fait que la limite de la variance est infini est presque évident car la covariance entre les Xn est positive et leur variance tend vers 1.
On le voit bien dans ta formule avec V(X_n)>n-\frac1{1-2\varepsilon}.

Si on regarde le cas =0 la moyenne est toujours 1 ce qui est évident par symétrie et la variance est n.
Pour le cas =1/2, dont j'espère qu'il est exclu, l'espérance est n et la variance 0 car X_n est constante. On peut constater que la limite de l'espérance tend bien vers l'infini quand tend vers 1/2.

Posté par
ardea
re : Chaîne de Markov 08-08-25 à 18:29

Merci beaucoup verdurin pour ton aide et toutes tes explications, cela m'a beaucoup aidé !

Posté par
verdurin
re : Chaîne de Markov 08-08-25 à 19:10

Service



Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Inscription gratuite

Fiches en rapport

parmi 1749 fiches de maths

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !