Espérance conditionnelle et application en modélisation
agrégation : leçon 403 en option probabilité
0.Introduction
1) Filtrage de Kalman-Bucy
On dispose d'un mobile dont la trajectoire est régie par l'équation différentielle:
Cependant le mobile est soumis à desperturbations
)
, et l'on ne dispose que de mesures discrètes portant sur la position du mobile:
=GX(t)+W(t))
où

correpond au bruit perturbant l'appareil de mesure.
Finalement en discrétisant on obtient:
Le but va être de trouver deux estimateurs, l'un permettant de prédire

à partir des

premières
observations, et l'autre d'estimer

à l'aide des

premières observations.
2) Standard téléphonique
On suppose que le temps d'attente à un standard téléphonique

suit une loi
)
,

inconnue
On veut estimer
=P_{\theta}(X_1>t))
à partir de la connaissance du temps d'attente de

personnes.
On connait l'estimateur empirique

, cependant on va chercher un estimateur qui soit optimal en ce sens qu'il sera de variance inférieure.
3) Sondage stratifié
On réalise un sondage, sur un échantillon représentatif de la population, à propos d'un referendum, et l'on classe les personnes interrogées selon

classes distinctes.
Soit

et

la classe de la personne.
On peut observer que si l'on se restreint a l'une des 3 classes l'espérance de

n'est plus la même.
On peut noter
=\displaystyle\sum_{i=1}^3E(X|Y=i)\mathbb{1}_{Y=i})
.
Et plus généralement si

et

sont deux variables aléatoires discrètes à valeurs respectives dans
_{i\in I})
et
_{j\in J})
.
Soit
)
un espace de probabilité.

une sous tribu.
I.Espérance conditionnelle
Définition: Soit
)
, on appelle espérance conditionnelle de

sachant

, la projection de

sur
)
et on la note
Remarque:
- L'espérance conditionnelle minimise
parmi les fonctions
-mesurable.
- L'espérance conditionnelle même si elle est considérée comme une variable aléatoire n'est en fait définie que presque surement.
Théorème: Soit

, alors il existe

une variable aléatoire

-mesurable vérifiant:
<\infty)
et

.
On note
Remarque: En particulier si

est un représentant de l'espérance conditionnelle de

sachant

,

vérifie,
Propriété: Si
_{i\in {\mathbb{N}^*}})
est une partition de

, avec

et
)
.Soit

alors
=\displaystyle\sum_{i\in {\mathbb{N}}^*}E(X|A_i)\mathbb{1}_{A_i})
.
De plus
=\frac{E(X\mathbb{1}_{A_i})}{P(A_i)})
si
\neq 0)
et peut être choisi arbitrairement dans le cas contraire.
II.Propriétés
Premiers résultats:
- L'espérance conditionnelle possède les mêmes propriétes que l'espérance classique (linéarité, croissance monotone, lemme de Fatou, Cv dominé...)
- Si
indépendante de
alors ![E[X|\cal G]=E[X]](https://latex.ilemaths.net/latex-0.tex?E[X|\cal G]=E[X])
- Si
est
-mesurable
et en particulier
.
Exemple: Si
_{i\in \lbrace 1,...,n\rbrace })
sont des va iid et

, on peut montrer que
![E[T_1|T]=T/n](https://latex.ilemaths.net/latex-0.tex?E[T_1|T]=T/n)
et
![E[T|T_1]=(n-1)E[T_1]+T_1](https://latex.ilemaths.net/latex-0.tex?E[T|T_1]=(n-1)E[T_1]+T_1)
.
Proposition Si

, alors
=E(E(X|\cal G)|\cal H))
p.s.
Proposition: )
martingale associée à

une filtration, alors à

fixé,
=X_m)
.
De plus
)
est constant.
Exemple: Urne de Polya, si

correspond a la proportion de boule blanche à la k-ème étape.
Sachant que

, on a
)
qui est une martingale et
III.Filtre de Kalman-Bucy.
1) Vecteurs gaussiens
Définition: Si
^t)
et
^t)
sont deux vecteurs aléatoires on définit
=(E(X_1|Y),...,E(X_n|Y))^t)
.
Proposition: Si

et

sont deux vecteurs gaussiens dans leur ensemble, de moyenne

et

et de matrices de covariances

et

.
Notons
![\Sigma_{XY}=E[(X-m_X)(Y-m_Y)^t]](https://latex.ilemaths.net/latex-0.tex?\Sigma_{XY}=E[(X-m_X)(Y-m_Y)^t])
, et suppososns

positive.
Alors
=m_X+\S_{XY}\S_Y^{-1}(T-m_Y))
.
Et la covariance de
![\widetilde X=X-E[X|Y]](https://latex.ilemaths.net/latex-0.tex?\widetilde X=X-E[X|Y])
est

.
Corollaire: Si

sont trois vecteurs gaussiens dans leur ensemble et si

et

sont non corrélés, et

ainsi que

sont positives alors:
![E[X|Y,Z]=E[X|Y]+E[X|Z]-m_X](https://latex.ilemaths.net/latex-0.tex?E[X|Y,Z]=E[X|Y]+E[X|Z]-m_X)
.
2)Application au filtre de Kalman-Bucy:
Pour cela on va supposer que tous nos vecteurs aléatoires sont des vecteurs gaussiens, que
_{n\in \mathbb{N}})
et
_{n\in \mathbb{N}})
sont indépendants de matrices de covariances

et

connues, et que

est centré.
On pose
)
.
Pour prédire

à l'aide des

premières observations on va poser
![{\widehat X}_n=E[X_n|{\cal F}_{n-1}]](https://latex.ilemaths.net/latex-0.tex?{\widehat X}_n=E[X_n|{\cal F}_{n-1}])
et pour estimer

par les

premières observations on va poser
![{\widetilde X}_n=E[X_n|{\cal F}_n]](https://latex.ilemaths.net/latex-0.tex?{\widetilde X}_n=E[X_n|{\cal F}_n])
.
On obtient par le théorème précédent une formule assez compliqué car il faut inverser une matrice de taile de plus en plus grande ce qui peut donc devenir très fastidieux.
Il est donc très utile de donner des formules de récurrence qui permette d'alléger les calculs des prédictions et des matrices d'erreurs.
On va noter par la suite

et
On a
où
^{-1})
et avec les conditions initiales
Et de la même manière on peut montrer que :
où
Preuve: Posons
![I_n=Y_n-E[Y_n|\mathcal{F}_n]=GX_n+W_n-E[GX_n+W_n|\mathcal{F}_n]](https://latex.ilemaths.net/latex-0.tex?I_n=Y_n-E[Y_n|\mathcal{F}_n]=GX_n+W_n-E[GX_n+W_n|\mathcal{F}_n])
, par indépendance de

on obtient
![\Sigma_{I_n}=E[I_nI_n^t]=GS_nG^t+R_n](https://latex.ilemaths.net/latex-0.tex?\Sigma_{I_n}=E[I_nI_n^t]=GS_nG^t+R_n)
(par indépendance de

)
On a
)
cela est évident par le fait que

est indépendant de
Ainsi par le corollaire, on obtient que
![{\widehat X}_{n+1}=E[X_{n+1}|\mathcal{F}_n]=E[X_{n+1}|\mathcal{F}_n]+E[X_{n+1}|I_n]=F{\widehat X}_n+FE[X_n|I_n]](https://latex.ilemaths.net/latex-0.tex?{\widehat X}_{n+1}=E[X_{n+1}|\mathcal{F}_n]=E[X_{n+1}|\mathcal{F}_n]+E[X_{n+1}|I_n]=F{\widehat X}_n+FE[X_n|I_n])
Or
Ainsi
Ainsi montrer la première partie de la récurrence revient à montrer que
Or

étant indépendant de

, on a
=E((X_n-{\widehat X}_n)I_n^t)=\Sigma_nG^t)
.
)=F(X_n-{\widehat X}_n)+V_n-K_n(GX_n+W_n-G{\widehat X}_n)=(F-K_nG)(X_n-{\widehat X}_n)+V_n-K_nW_n)
et le résultat final en découle par indépendance des 3 termes.
Ce qui permet de simplifier les calculs car les matrices à inverser sont de tailles constantes et qu'il suffit de connaitres les résultats à une étape précédente pour pouvoir calculer la suivante.
IV.Exhaustivité
Loi conditionnelle: Soit

et

deux variables aléatoires telles que
)
admette une densité de probabilité
}(x,y))
.
On peut considérer la fonction
Où
Ceci nous permet de calculer des espérances conditionneles, ainsi
Application à la file d'attente: Soit
![T_{\theta}=E_{\theta}[\mu_n|S_n]P_{\theta}(X_1>t|S_n)](https://latex.ilemaths.net/latex-0.tex?T_{\theta}=E_{\theta}[\mu_n|S_n]P_{\theta}(X_1>t|S_n))
où
Alors on a
Et
Ainsi
Définition: Une sous-tribu

est dites exhaustive pour le modèle statistique
)
si pour toute variable aléatoire réelle positive

sur

, il existe une version de l'espérance conditionnlle
![E_{\theta}[X|\cal G]](https://latex.ilemaths.net/latex-0.tex?E_{\theta}[X|\cal G])
qui ne dépendent pas de

.
Une statistique

est dite exhaustive si
)
l'est.
Proposition: Si

est un estimateur sans biais de
)
de carré intégrable et si

est une statistique exhaustive alors l'estimateur
![V=E[U|T]](https://latex.ilemaths.net/latex-0.tex?V=E[U|T])
est un estimateur sans biais de
)
de risque quadratique plus faible que celui de de

.
Définition: 
est une statistique complète si pour tout

fonction telle que
Propriétés: Si

est un estimateur sans biais de
)
, de carré in tégrable et

une statistique exhaustive et complète, l'estimateur
![E[U|T]](https://latex.ilemaths.net/latex-0.tex?E[U|T])
est alors l'unique estimateur sans biais fonction de

et sa variance est

inférieur ou égal à la variance de

et est même plus faible que celle de tout estimater sans biais.
Il est uniformément de variance minimum parmi les estimateurs sans biais.
Application Dans le cas de la file d'attente,

est une statistique exhaustive et complète.
Donc
![E_{\theta}[\mu_n|T]](https://latex.ilemaths.net/latex-0.tex?E_{\theta}[\mu_n|T])
est un estimateur UVMB indépendant de
Bibliographie
[R]: D.Revuz "Probabilités"
[BMP]: Baldi-Mazliak-Priouret "Martingales et chaînes de Markov"
[DCD]: Dacunha Castelle Duflo "Probabilités et statistiques 1"
[W]: Williams "Probability with Martingales"
[B]: Brémaud "Introducton aux probabilités"
[S]: Saporta "Probabilité-Analyse des données et statistiques"
[Sh]: Sheldon Ross