Inscription / Connexion Nouveau Sujet
Niveau LicenceMaths 2e/3e a
Partager :

Statistique

Posté par
lytar
23-02-21 à 11:15

Bonjour j'ai une question concernant la justification de mes réponses.
Je vous pose le sujet :

Soit X_i une variable aléatoire indépendantes et identiquement distribués à valeur dans A.
Soit D \subset A, on note p = P($X_1 \in D)

\forall n \geq  1, on pose S_n = \sum\limits_{j=1}^n 1_{X_j \in D}

Je dois dans calculer E(S_n)

E(S_n) = E(\sum\limits_{j=1}^n 1_{X_j \in D}) = \sum\limits_{j=1}^n E(1_{X_j \in D})  par linéarité de l'espérance
= \sum\limits_{j=1}^n  P($X_j \in D) = \sum\limits_{j=1}^n  P($X_1 \in D) Car X_i est identiquement distribués
= \sum\limits_{j=1}^n p = n p

C'est une question très simple, mais je veux savoir si je justifie bien mon raisonnement.
Merci !

Posté par
lytar
re : Statistique 23-02-21 à 11:47

Par ailleurs, je dois calculer la variance mais je bloque à un moment :


V(S_n) = V(\sum\limits_{j=1}^n 1_{X_j \in D}) = \sum\limits_{j=1}^n V(1_{X_j \in D})  par l'indépendance des variables aléatoires

Comment continuer ? Dois-je utiliser V(X)=E((X-E(X)^2)

Posté par
Ulmiere
re : Statistique 23-02-21 à 12:08

C'est correct jusque là, à un détail près*
Pour la variance, utilise \textrm{Var}(X) = E(X^2) - E(X)^2, qui est bien utile ici puisque X^2 = X P-ps.
Donc ça fait nE(X)(1-E(X)) au final.



* : tu n'as pas justifié que S_n est intégrable avant de prendre l'éespérance. Même chose pour la variance, il faut d'abord montrer qu'elle est L^2. Il y a certes une convention évidente E(X) = {\red +}\infty si X\notin L^1. Mais que vaut la variance de la v.a ps égale à +\infty ?
Pour tout faire proprement écris simplement que : |S_n| = S_n = \sum_{j=1}^n 1_{X_i\in D} \leqslant \sum_{j=1}^n 1 = n est toujours une v.a L^\infty, donc évidemment L^1 et L^2, parce que P est une mesure finie. Note bien que ce n'est pas la suite qui est bornée, mais chacun de ses termes, ce qui suffit pour nous.

Posté par
lytar
re : Statistique 23-02-21 à 12:16

Merci ulmiere mais on a pas à justifié tout ce que vous avez dit car ma matière est introduction à la statistique !

Par contre je crois que ma professeur s'est alors tromper dans la correction pour V(Sn)?
Car moi aussi je trouvais np(1-np) et je ne savais pas pourquoi je n'avais pas le même résultat que dans ma correction ...?

Posté par
lytar
re : Statistique 23-02-21 à 12:18

Voici la correction

Statistique

* Modération > image exceptionnellement tolérée *

Posté par
Ulmiere
re : Statistique 23-02-21 à 12:23

Non, ta prof a raison et est d'accord avec moi.
J'ai bien écrit nE(X)(1-E(X)) et non nE(X)(1-E(S_n))

Quant à la justification, elle est bien présente, dans la ligne "S_n suit une loi de Bernoulli de paramètre p".

Posté par
lytar
re : Statistique 23-02-21 à 12:37


V(S_n) = V(\sum\limits_{j=1}^n 1_{X_j \in D}) = \sum\limits_{j=1}^n V(1_{X_j \in D})  par l'indépendance des variables aléatoires

= \sum\limits_{j=1}^n[ E(1_{X_j \in D}^2) - E(1_{X_j \in D})^2 ]
=  \sum\limits_{j=1}^n[ E(1_{X_j \in D}) - E(1_{X_j \in D})^2 ]
=  np - \sum\limits_{j=1}^nE(1_{X_j \in D})^2
= np - np^2

Je crois avoir trouver mon erreur quand je calculais je trouvais que  \sum\limits_{j=1}^nE(1_{X_j \in D})^2 = (np)^2
mais en fait :
\sum\limits_{j=1}^nE(1_{X_j \in D})^2 = \sum\limits_{j=1}^n p^2 = np^2

C'est bien ça ?

Posté par
Ulmiere
re : Statistique 23-02-21 à 12:47

Oui, c'est du calcul de base

Posté par
lytar
re : Statistique 23-02-21 à 12:49

Oui je sais je fais souvent des erreurs car je suis en reprise d'étude ^^

Merci beaucoup

Posté par
Ulmiere
re : Statistique 23-02-21 à 12:54



Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Inscription gratuite

Fiches en rapport

parmi 1675 fiches de maths

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !