Bonjour, je suis bloqué sur un exercice et je ne vois pas comment avancer. Ce serait très gentil de m'aider, merci d'avance !!
Soit (Xn)n≥1 une suite de variables aléatoires réelles de carré intégrables
(E[(X_n)²] < ∞). On s'intéresse à la somme Sn := X1 + · · · + Xn. On dit que la suite (Sn)n≥1 satisfait la loi faible des grands nombres si pour tout epsilon positif :
lorsque n -> ∞.
J'ai déjà montré dans les questions précédentes que :
On suppose ici que : pour tous i, j ≥ 1, Xi et Xj sont indépendantes si |i − j| > 1, et la suite (Var(Xn))n≥1 est bornée
Alors :
Je dois en déduire que (Sn)n≥1 satisfait la loi faible des grands nombres. J'ai pensé à utiliser l'inégalité de Tchebychev mais quand j'explore cette piste je n'avance pas. J'ai voulu tester avec la variance de S_n / n mais je n'arrive pas à montrer que tend vers 0, je ne sais pas si c'est une bonne piste et si oui comment avancer.
Merci d'avance,
Déjà, tu peux te simplifier grandement la vie en remplaçant chaque par
et ainsi montrer seulement le résultat pour une suite de variables centrées de variance 1).
Concernant l'exercice, la suite des variances est bornée, donc la somme des variances est plus petite qu'une constante fois n.
Quant au second terme, pour tous réels et
,
Pour le second terme, si je considère et pareil avec b pour i+1, alors je me retrouve avec
Donc
avec M et M' des majorants de
C'est bien ca ?
modération> *MatheuxAnonym,
Tu n'as pas renseigné ton profil correctement je pense, comme demandé lire Q12
[lien]
Oui effectivement je l'ai remarqué, merci !
Ce qui m'intrigue c'est qu'on s'est servi du fait que la suite des variances est bornée jusqu'ici et c'était notre principal argument, or dans la suite de mon exercice j'ai la même question avec l'expression de la variance ci-dessous
Et cette fois si on suppose juste que : pour tous n ≥ 1, k ≥ 0, Cov(Xn, Xn+k) = Cov(X1, X1+k); et lim k→∞ Cov(X1, X1+k) = 0. Donc on n'a plus l'hypothèse que la suite des variances est bornée.
Or, si j'applique le même raisonnement avec la nouvelle expression de Var(Sn), j'obtiens en majorant (n-k) par n pour la somme à droite du membre droit :
et je ne peux pas finir..
Désolé du double post, je mets un petit update de mes recherches :
étant une constante, alors la somme tout à droite dans l'inégalité d'en bas devient
Donc
=
Or,
Il ne reste plus qu'à montrer que la somme des Var(X_1_+_k) est bornée. Suis-je sur la bonne piste ? Et si oui pourriez vous me donner une indication de comment montrer cela ? Merci beaucoup de votre précieuse aide !!
Utilise la convergence de la suite des covariances pour en déduire qu'elle est bornée par une constante .
Fixe . La définition de la CV nous dit qu'il existe
tq pour
, on a
.
Ensuite, pour (on peut se contenter de ça, puisque le but est de faire tendre
vers l'infini)
En divisant par tu trouves un
et je te laisse conclure à partir de là.
Attention au fait que dépend de
!
Merci de votre réponse !
Il y a plusieurs choses que je voudrais clarifier voire comprendre :
. Quand vous dites d'utiliser la convergence de la suite des covariances, on sait qu'elle est bornée car lim k→∞ Cov(X1, X1+k) = 0 c'est bien ça ? Ou peut-être qu'il y a un autre argument et dans ce cas je n'ai pas compris ?
. Ensuite je ne comprends pas la 1ère égalité dans les calculs ainsi que l'indice dans votre 2eme post, et pourquoi on divise par n² * epsilon et pas par n² * epsilon²
Merci d'avance
Un changement de variable avec (n-k) = (1+k) ?
Et du coup si je remplace epsilon^2 par epsilon^3 :
Et epsilon > 0, donc pour moi l'expression ne tend pas vers 0 c'est pour ça que je ne suis pas sûr de bien comprendre ce qu'il se passe
C'est par qu'il fallait diviser du coup
Je ne voulais pas te filer la réponse tout cru, mais si tu veux remplace plutôt les epsilon de mon calcul par des . En divisant toujours par
.
En clair, du epsilon dans ton inégalité de Markov, et du delta pouvant être aussi petit que tu veux dans mon calcul.
Et regarde comment faire en sorte de trouver un majorant aussi petit que tu veux à la fin
Comme alors la suite des covariances est bornée par une constante C.
Soit > 0,
K tq
k
K,
.
Ainsi, lorsque n > K,
Et en divisant par n²²,
Comme (1+K)C < et
> 0,
Je ne vois pas comment me débarasser du membre droit de l'addition cependant
Maintenant, on réorganise tout cela.
1) Fixer un et écrire ton inégalité de Markov pour tout n, sans lien avec ε a priori. Vraiment n'importe quel n est valable
2) Remarquer que la suite des covariances est bornée et introduire C
3) Soit . Soit
3a) il existe un entier K tel que k>K ===> cov(...)<delta. Supprimer la ligne "soit n>K" et la remplacer par "pour tout n>K"
3b) en refaisant mon calcul avec notre delta particulier on trouve un terme , pour tout n assez grand
4) Remarquer que si, en plus d'être >K, notre n est également supérieur à , le premier terme se majore aussi en
Alors la somme totale se majore en , et son double se majore en
5) Enfin, puisque nVar(X_1)/n² tend vers 0 i existe tq si
,
6) Retour au 1) avec un . On a montré que pour tout a, il existe un rang à partir duquel la probabilité est
, ce qui ressemble furieusement à la définiton d'une convergence de suite vers 0
Je comprends, il y a plein d'étapes intermédiaires !!! Merci beaucoup !!
Comment est-ce que vous avez pensé à faire tout ça ? Pour comprendre le cheminement, ça m'aidera peut être pour d'autres exercices
Pour le premier exercice, c'est toi qui as trouvé l'idée, je t'ai juste rappelé l'inégalité de Holder
Pour le second, c'est en gros le seul truc que tu puisses faire au niveau L3. Pour majorer des sommes, rien de tel que d'avoir un majoration du terme général. A défaut, on utilise des propriétés de convergence pour couper vos sommes en deux. Ca marche aussi avec les intégrales, très classique en analyse fonctionnelle.
C'est comme une gymnastique, tu apprendras à construire des preuves sur le tas avec le temps
D'accord je vois, je vais m'exercer et au fur et à mesure j'y arriverai mieux, merci beaucoup pour cette précieuse aide !
Vous devez être membre accéder à ce service...
Pas encore inscrit ?
1 compte par personne, multi-compte interdit !
Ou identifiez-vous :