Inscription / Connexion Nouveau Sujet
Niveau LicenceMaths 2e/3e a
Partager :

information de Fisher

Posté par
mousse42
28-04-21 à 00:23

Bonjour,
C'est un exercice sans correction, j'aimerai savoir si ce que j'ai fait est correct, et pour la dernière question, j'ai quelques doutes (sa consistance et sa loi limite)

Citation :
On considère la paramétrisation  \Theta=]-1,1[ et \mu_{\theta} de densité f_{\theta}(x)=(1-\theta)1_{[-1/2,0[}(x)+(1+\theta)1_{[0,1/2[}(x)

1) On pose s(x_1,\dots,x_n):=\sum_{i=1}^n1_{[0,1/2]}(x), déterminer la loi de s(X_1,\cdots,X_n)
2) Calculer l'information de Fisher I(\theta) du modèle
3) Déterminer l'estimateur du maximum de vraisemblance de \hat\theta_n de \theta
4) Etudier son biais, son risque quadratique, sa consistance et sa loi limite



1ère question
J'ai remarqué que s(X_1,\cdots,X_n) suit une loi discrète :

\Large  \begin{array}{ll}P(s(X_1,\cdots,X_n)=1)&=P(\bigcup_{i=1}^n\bigg[\bigg(\Bigcap_{\substack{j=1\\j\ne i}}^n(X_j\notin[0,1/2[)\bigg)\cap([X_i\in [0,1/2[)\bigg]\\\\&= \sum_{i=1}^nP\bigg[\bigg(\Bigcap_{\substack{j=1\\j\ne i}}^n(X_j\notin[0,1/2[)\bigg)\cap([X_i\in [0,1/2[)\bigg]
 \\ \\&=\sum_{i=1}^nP(X_i\in [0,1/2[)\prod_{\substack{j=1\\j\ne i}}^nP(X_j\notin[0,1/2[)\\\\&=\sum_{i=1}^nP(X_1\in [0,1/2[)\bigg(P(X_1\notin[0,1/2[)\bigg)^{n-1}\\\\&=nP(X_1\in [0,1/2[)\bigg(P(X_1\notin[0,1/2[)\bigg)^{n-1}\end{array}

Ainsi j'ai fait la conjecture (je développe pas tout) que


\Large P(s(X_1,\cdots,X_n)=k)=C_n^k\left(\dfrac{1+\theta}{2}\right)^k\left(\dfrac{1+\theta}{2}\right)^{n-k}

Ainsi \Large \boxed{s(X_1,\cdots,X_n)\sim\mathcal{B}\left(n,\dfrac{1+\theta}{2}\right)}

2ème question

Si on connait l'information de Fisher de la loi binomiale, on peut déduire que : \Large \boxed{I(\theta)=\dfrac{n}{1-\theta^2}}

3ème question Maximum de vraisemblance

\Large L\Big(s(X_1,\cdots,X_n),\theta\Big)=\prod_{i=1}^nC_n^{s(X_1,\cdots,X_n)}\left(\dfrac{1+\theta}{2}\right)^{s(X_1,\cdots,X_n)}\left(\dfrac{1+\theta}{2}\right)^{n-s(X_1,\cdots,X_n)}

En passant par la log vraisemblance et une dérivation je trouve que le maximum de vraisemblance est de :

\Large \ell'(s(X_1,\cdots,X_n),\theta)=\dfrac{s(X_1,\cdots,X_n)-n(1+\theta)}{1-\theta^2}
et
\Large \ell'(s(X_1,\cdots,X_n),\theta)=\iff \theta=\dfrac{2s(X_1,\cdots,X_n)-n}{n}


d'où \Large \hat\theta_n:=\dfrac{2s(X_1,\cdots,X_n)-n}{n}

4ème et dernière question (Biais, risque quadratique, sa consistance et sa loi limite.

\Large \hat\theta_n est sans biais (simple) et son risque quadratique :

\Large E\Big((\hat\theta_n-\theta)^2\Big)=\dfrac{1-\theta^2}{n}\underset{n\to +\infty}{\rightarrow}0

Pour la consitance j'ai un doute car j'ai :


\Large E\Big[ S\big(s(X_1,\cdots,X_n),\theta\big)^2\Big]=I(\theta)=\dfrac{n}{1-\theta^2}}

On a bien I(\theta)<+\infty pour tout n\in \N

Mes questions sont les suivantes :  supposons que les 5 hypothèses de Fisher soient vérifiées (H1 à H5) et supposons que \Large \dfrac{\partial^2}{\partial \theta^2}L(s(X_1,\cdots,X_n),\theta) soit continue, un théorème me dit que j'ai le résultat suivant :

\Large \sqrt{n}(\hat\theta_n-\theta)\xrightarrow{\text{en loi}} Z\sim\mathcal{N}\left(0,\dfrac{1}{I(\theta)}\right)=\mathcal{N}\left(0,\dfrac{1-\theta^2}{n}\right)

C'est bien ça, je ne me trompe pas...

Posté par
mousse42
re : information de Fisher 28-04-21 à 00:31


_________________________________CORRECTION_______________________________________

Bonjour,
C'est un exercice sans correction, j'aimerai savoir si ce que j'ai fait est correct, et pour la dernière question, j'ai quelques doutes (sa consistance et sa loi limite)

Citation :
On considère la paramétrisation  \Theta=]-1,1[ et \mu_{\theta} de densité f_{\theta}(x)=(1-\theta)1_{[-1/2,0[}(x)+(1+\theta)1_{[0,1/2[}(x)

1) On pose s(x_1,\dots,x_n):=\sum_{i=1}^n1_{[0,1/2]}(x), déterminer la loi de s(X_1,\cdots,X_n)
2) Calculer l'information de Fisher I(\theta) du modèle
3) Déterminer l'estimateur du maximum de vraisemblance de \hat\theta_n de \theta
4) Etudier son biais, son risque quadratique, sa consistance et sa loi limite



1ère question
J'ai remarqué que s(X_1,\cdots,X_n) suit une loi discrète :

\Large  \begin{array}{ll}P(s(X_1,\cdots,X_n)=1)&=P(\bigcup_{i=1}^n\bigg[\bigg(\Bigcap_{\substack{j=1\\j\ne i}}^n(X_j\notin[0,1/2[)\bigg)\cap([X_i\in [0,1/2[)\bigg]\\\\&= \sum_{i=1}^nP\bigg[\bigg(\Bigcap_{\substack{j=1\\j\ne i}}^n(X_j\notin[0,1/2[)\bigg)\cap([X_i\in [0,1/2[)\bigg]
 \\ \\&=\sum_{i=1}^nP(X_i\in [0,1/2[)\prod_{\substack{j=1\\j\ne i}}^nP(X_j\notin[0,1/2[)\\\\&=\sum_{i=1}^nP(X_1\in [0,1/2[)\bigg(P(X_1\notin[0,1/2[)\bigg)^{n-1}\\\\&=nP(X_1\in [0,1/2[)\bigg(P(X_1\notin[0,1/2[)\bigg)^{n-1}\end{array}

Ainsi j'ai fait la conjecture (je développe pas tout) que


\Large P(s(X_1,\cdots,X_n)=k)=C_n^k\left(\dfrac{1+\theta}{2}\right)^k\left(\dfrac{1-\theta}{2}\right)^{n-k}

Ainsi \Large \boxed{s(X_1,\cdots,X_n)\sim\mathcal{B}\left(n,\dfrac{1+\theta}{2}\right)}

2ème question

Si on connait l'information de Fisher de la loi binomiale, on peut déduire que : \Large \boxed{I(\theta)=\dfrac{n}{1-\theta^2}}

3ème question Maximum de vraisemblance

\Large L\Big(s(X_1,\cdots,X_n),\theta\Big)=\prod_{i=1}^nC_n^{s(X_1,\cdots,X_n)}\left(\dfrac{1+\theta}{2}\right)^{s(X_1,\cdots,X_n)}\left(\dfrac{1-\theta}{2}\right)^{n-s(X_1,\cdots,X_n)}

En passant par la log vraisemblance et une dérivation je trouve que le maximum de vraisemblance est de :

\Large \ell'(s(X_1,\cdots,X_n),\theta)=\dfrac{s(X_1,\cdots,X_n)-n(1+\theta)}{1-\theta^2}
et
\Large \ell'(s(X_1,\cdots,X_n),\theta)=\iff \theta=\dfrac{2s(X_1,\cdots,X_n)-n}{n}


d'où \Large \hat\theta_n:=\dfrac{2s(X_1,\cdots,X_n)-n}{n}

4ème et dernière question (Biais, risque quadratique, sa consistance et sa loi limite.

\Large \hat\theta_n est sans biais (simple) et son risque quadratique :

\Large E\Big((\hat\theta_n-\theta)^2\Big)=\dfrac{1-\theta^2}{n}\underset{n\to +\infty}{\rightarrow}0

Pour la consitance j'ai un doute car j'ai :


\Large E\Big[ S\big(s(X_1,\cdots,X_n),\theta\big)^2\Big]=I(\theta)=\dfrac{n}{1-\theta^2}}

On a bien I(\theta)<+\infty pour tout n\in \N

Mes questions sont les suivantes :  supposons que les 5 hypothèses de Fisher soient vérifiées (H1 à H5) et supposons que \Large \dfrac{\partial^2}{\partial \theta^2}L(s(X_1,\cdots,X_n),\theta) soit continue, un théorème me dit que j'ai le résultat suivant :

\Large \sqrt{n}(\hat\theta_n-\theta)\xrightarrow{\text{en loi}} Z\sim\mathcal{N}\left(0,\dfrac{1}{I(\theta)}\right)=\mathcal{N}\left(0,\dfrac{1-\theta^2}{n}\right)

C'est bien ça, je ne me trompe pas...



Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Inscription gratuite

Fiches en rapport

parmi 1675 fiches de maths

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !