Bonsoir,
J'essaie d'approfondir certaines notions vues trop rapidement il y a quelques années.
Particulièrement, Estimateurs Uniformément sans Biais de Variance Minimale.
Je souhaiterais traiter ces questions :
1. Considérons la famille des distributions normales de moyenne 0 et d'écart type σ. Trouver un USBVM pour σ².
2. Considérons la famille des distributions normales avec moyenne μ et écart type σ = 1. Trouvez un USBVM pour µ.
3. Considérons la famille des distributions normales de moyenne μ et d'écart type connu σ. X est-il un USBVM ? de µ ?
Pour la 2. j'ai trouvé comme indication de prendre E(X²)=1+µ²
J'ai calculé l'emv d'une loi normale pour la moyenne et la variance.
Le lien avec les propriétés n'est pas évident pour moi.
X_i∼N(μ,σ^2)
f(x)=1/(√2π σ^2 ) exp[(-(x-μ)^2)/(2σ^2 )]
E(X_i)=μ
Var(X_i)=1
E(X ̄)=E((∑_(i=1)^n▒x_i )/n)=μ
Var(X ̄)=Var(1/n ∑_(i=1)^n▒x_i )
On a :
Bias=θ ̂-E(θ ̂)=μ ̂^2-E(μ ̂^2)=X ̄-E(X ̄^2)
=μ^2-{Var(X ̄)+[E(X ̄)]}=μ^2-(1/n+μ^2 )=(-1)/n<0
D'où :
μ ̂^2=X ̄^2est un estimateur non biaisé de μ^2.
Nous avons,
E(μ ̂)=E(X ̄)=μ
μ ̂ est un estimateur non biaisé de μ.
Par définition, l'estimateur non biaisé de μ ̂ qui minimise l'erreur quadratique moyenne est appelé estimation sans biais de la variance minimale de μ.
EQM(μ ̂)=E(μ ̂-μ)^2
EQM(μ ̂)=Var(μ)
Par conséquent, minimiser l'EQM implique la minimisation de Var(μ ̂).
μ ̂ est l'estimateur sans biais à variance minimale de μ.