Inscription / Connexion Nouveau Sujet
Niveau LicenceMaths 2e/3e a
Partager :

Loi uniforme et estimateurs

Posté par
mousse42
12-03-21 à 16:15

Bonjour,

C'est en terminant la rédaction de ma question que j'ai trouvé la réponse, alors vu que j'ai passé 40 minutes à rédiger, je le poste quand même. alors désolé pour le dérangement...

On a \Theta=\{(a,b)\in \R^2 :a<b\} et u_\theta =\mathcal{U}(a,b)

J'ai trouvé les estimateurs  (\hat a_n ,\hat b_n)=(\min\limits_{i\in[[1,n]]} X_i,\max\limits_{i\in[[1,n]]} X_i)

On me demande de montrer que chaque estimateur converge presque sûrement vers les inconnues a et b en utilisant le lemme de Borel Cantelli

Citation :
Th. de Borel Cantelli
Soit (X_n) une suite de v.a. et X une v.a.
\Big[\forall r>0, \sum_{n\ge 0}P(|X_n-X|>r)<\infty\Big]\implies X_n\xrightarrow[n\to \infty]{p.s.}X


On va montrer que \hat b_k converge presque sûrement vers b
Je pose \hat b_k=\max\limits_{i\in[[1,k]]} X_i

Soit r>0

et montrons que \sum_{k\ge1}P(|\hat b_k-b|>r)<+\infty

Soit k\ge 1

\begin{array}{ll}P(|\hat b_k-b|>r)&=1-P(|\hat b_k-b|\le r)=1-P(b-r\le \max\limits_{i\in[[1,k]]} X_i\le b+r)\\\\&=1-P(\max\limits_{i\in[[1,k]]} X_i\le b+r)+P(\max\limits_{i\in[[1,k]]} X_i\le b-r)\\\\&=1-P\Big[\bigcap_{i=1}^k\{X_i\le b+r\}\Big]+P\Big[\bigcap_{i=1}^k\{X_i\le b-r\}\Big]\\&=1-\prod\limits_{i=1}^kP(X_i\le b+r)+\prod\limits_{i=1}^kP(X_i\le b-r)=1-{\Big[\underbrace{P(X_1\le b+r)}_{=1}\Big]^k+\Big[P(X_1\le b-r)\Big]^k=\left(\dfrac{b-r-a}{b-a}\right)^k\end{array}

Ainsi \sum_{k\ge1}P(|\hat b_k-b|>r)=\sum_{k\ge1}\left(\dfrac{b-r-a}{b-a}\right)^k=\dfrac{\left(\dfrac{b-r-a}{b-a}\right)}{1-\left(\dfrac{b-r-a}{b-a}\right)}=\dfrac{b-r-a}{r}=\dfrac{b-a}{r}-1

Posté par
Ulmiere
re : Loi uniforme et estimateurs 12-03-21 à 18:49

Que c'est compliqué ! b_k est ps inférieur à b dont tu peux directement écrire

P(|b_k-b|>r) = P(b-b_k>r) = P(b_k<b-r) = P(X_1 < b-r)^k = \left(\dfrac{b-r-a}{b-a}\right)^k

Ensuite, ta justification de la convergence de la série n'est pas satisfaisante. Il faut montrer que la raison de ta suite géométrique est strictment inférieure à 1 en valeur absolue. C'est facile, il suffit de remarquer que quand b-a\geqslant r>0, b-r-a = (b-a)-r < b-a, donc en divisant par b-a>0, \left\lvert\dfrac{b-r-a}{b-a}\right\rvert = \dfrac{b-r-a}{b-a} < 1.
Quand r est négatif, la probabilité vaut 1, mais ce cas est exclus dans ton théorème.
Enfin, P-ps, |b_k-b| \leqslant b-a donc quand r>b-a, la probabilité vaut 0 et la convegence de la série géométrique est triviale.

Posté par
mousse42
re : Loi uniforme et estimateurs 12-03-21 à 19:36

Comment montres-tu que b_k<b?

Posté par
Ulmiere
re : Loi uniforme et estimateurs 12-03-21 à 19:50

P(b_k>b) = P(\exists i : X_i > b) = P\left(\bigcup_{i=1}^n \{X_i>b\} \right) \leqslant \sum_{i=1}^n P(X_i>b) = \sum 0 =0

Posté par
Ulmiere
re : Loi uniforme et estimateurs 12-03-21 à 19:51

Ou bien encore, P(b_k\leqslant b) = P(X_1\leqslant b)^n = 1^n = 1.
C'est toi qui vois

Posté par
mousse42
re : Loi uniforme et estimateurs 12-03-21 à 20:00

C'est sympa merci!

Posté par
Ulmiere
re : Loi uniforme et estimateurs 12-03-21 à 20:05

De rien
La seconde preuve est plus jolie, mais ça ne fonctionne que si P est une proba

Posté par
mousse42
re : Loi uniforme et estimateurs 12-03-21 à 20:14

Désolé, je reviens sur ce point

Ulmiere @ 12-03-2021 à 19:50

P(b_k>b) = P(\exists i : X_i > b) = P\left(\bigcup_{i=1}^n \{X_i>b\} \right) \leqslant \sum_{i=1}^n P(X_i>b) = \sum 0 =0


Et là, on dit que b est presque sûrement inférieure à  b_k?

Je n'ai jamais vu ça dans mes cours...

Posté par
mousse42
re : Loi uniforme et estimateurs 12-03-21 à 20:15

la seconde est plus jolie, la première plus instructive

Posté par
Ulmiere
re : Loi uniforme et estimateurs 12-03-21 à 20:48

Non, c'est le contraire. C'est b_k qui est ps inférieure à b.

P(b_k>b) = 0 \implies P(b_k\leqslant b) = 1-P(b_k>b) = 1

Posté par
mousse42
re : Loi uniforme et estimateurs 12-03-21 à 20:53

oui, oui, en fait c'est le dont je voulais parler.

Posté par
Ulmiere
re : Loi uniforme et estimateurs 12-03-21 à 20:53

Si tu préfères, tu peux aussi écrire que pour tous n réels x_i\in [a,b], tu auras a\leqslant \min_i x_i \leqslant \max_i x_i \leqslant b.
Et en appliquant avec x_i = X_i(\omega) pour tout \omega\in A, où A est un ensemble mesurable tq P(A)=1, tu obtiendras un encadrement presque-sûr de a_n et b_n

Posté par
mousse42
re : Loi uniforme et estimateurs 12-03-21 à 20:53

oui, oui, en fait c'est le "presque sûrement inférieure"dont je voulais parler.

Posté par
Ulmiere
re : Loi uniforme et estimateurs 12-03-21 à 20:57

Ta question c'est "que veut dire presque sûrement ?" ? Bizarre que tu ne saches pas, c'est dans l'énoncé de ton théorème de Borel-Cantelli

Si P est une mesure de probabilité sur (\Omega, \mathcal{A}) on dit qu'un évènement A\in\mathcal{A} arrive presque-sûrement si P(A^c) = 0. P étant de masse 1, finie, c'est équivalent à demander que P(A) = 1.

Posté par
mousse42
re : Loi uniforme et estimateurs 12-03-21 à 21:07

Non, je connais la convergence presque sûrement, mais pas inférieur presque sûrement

Posté par
Ulmiere
re : Loi uniforme et estimateurs 13-03-21 à 11:12

Si X,Y sont deux v.a sur (\Omega,\mathcal{A},\mathbb{P}), X\leqslant Y P-presque sûrement signifie que P(\{\omega\in\Omega : X(\omega)\leqslant Y(\omega)\}) = 1.
Ca veut dire que X(\omega)>Y(\omega) peut très bien arriver, mais seulement sur un ensemble de probabilité 0.

Posté par
Ulmiere
re : Loi uniforme et estimateurs 13-03-21 à 11:28

Et tant que j'y suis, voilà un énoncé du lemme de Borel Cantelli plus général

Soit (\Omega,\mathcal{A},P) un espace probabilisé.
Pour tout suite (A_n)_{n\geqslant 1} d'éléments de \mathcal{A} (chaque A_n est donc une partie de \Omega), on appelle
\limsup\limits_{n\to\infty} A_n l'ensemble \bigcap\limits_{n\geqslant 1} \bigcup\limits_{k\geqslant n} A_k. C'est un ensemble mesurable (intersection et union dénombrable de tels ensembles) et \omega\in\limsup A_n \Longleftrightarrow \forall  n\geqslant 1, \exists k\geqslant n : \omega\in A_k. Autrement dit, \omega\in A_k pour une infinité d'indices k (on dit "infiniment souvent").
De même, on appelle \liminf\limits_{n\to\infty} A_n = \bigcup\limits_{n\geqslant 1} \bigcap\limits_{k\geqslant n} A_k et \omega\in\liminf A_n ssi \exists n\geqslant 1 : \forall k\geqslant n, \omega\in A_k ssi \omega\in A_k à partir d'un certain rang.
Tu peux vérifier que (\limsup A_n)^c = \liminf (A_n^c)

Lemme de Borel-Cantelli

Citation :
Soit (A_n)\in\mathcal{A}^{\mathbb{N}^\ast},
1) si \sum\limits_{n=1}^\infty P(A_n) < \infty, alors P(\limsup A_n) = 0. Autrement dit, le contraire de l'évènement A_n a lieu à partir d'un certain rang
2) si les A_n sont indépendants et \sum P(A_n) diverge, alors P(\limsup A_n) = 1. C'est-à-dire que A_n se réalise pour une infinité d'indices n ("infiniment souvent")



Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Inscription gratuite

Fiches en rapport

parmi 1674 fiches de maths

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !