Inscription / Connexion Nouveau Sujet
Niveau Prepa intégrée
Partager :

Loi et Espérance conditionnelle

Posté par
matheux14
19-01-23 à 21:08

Bonsoir,

Merci d'avance.

X est une variable aléatoire suivant une loi de densité : f(x) = \dfrac{e^{-x}}{\sqrt{\pi x}}, pour x > 0.

Soit Y une autre variable aléatoire. On suppose que la loi conditionnelle de Y et X est une loi normale de paramètres m = 0 et \sigma^2 = \dfrac{1}{2X}.

1) Calculer la loi du couple (Y, X).

2) Quelle est la loi conditionnelle de X sachant Y ?

3) En déduire E(X | Y).

Je bloque sur la première question..

Posté par
flight
re : Loi et Espérance conditionnelle 19-01-23 à 23:34

salut

à mon sens l'énoncé dit que   Y sachant X   est une loi normale dont les parametres sont donnés il suffit de jouer avec la definition

P(X Y)= P(Y/X).P(X)

Posté par
matheux14
re : Loi et Espérance conditionnelle 20-01-23 à 07:22

Donc on cherche P(Y/X) ?

P(Y / X) = \dfrac{P(X \cap Y)}{P(X)}

Posté par
lionel52
re : Loi et Espérance conditionnelle 20-01-23 à 11:36

Formule du cours :

Si X est à densité f_X et Y|X à densité f_{Y|X} alors (X,Y) est à densité f_X f_{Y|X}

Posté par
matheux14
re : Loi et Espérance conditionnelle 20-01-23 à 12:00

Oui, mais je crois qu'on devrait poser T la loi de Y et X.

T suit alors une loi normale de paramètres \mathcal{N} \left(m = 0, \sigma^2 = \dfrac{1}{2X}\right)

T est continue donc a pour densité :

f(x, y) = F(t) = \dfrac{1}{\sigma \sqrt{2 \pi}} \exp\left(-\dfrac{(t - m)^2}{2 \sigma^2}\right)

f(x, y)= \dfrac{x}{\sqrt{\pi x}}\exp(-2x^2 t^2)

non ?

Posté par
lionel52
re : Loi et Espérance conditionnelle 20-01-23 à 12:37

Je trouve

f(x,y) = \frac{\sqrt{2x}}{\sqrt{2\pi}}e^{-xy^2}\frac{1}{\sqrt{\pi x}}e^{-x}1_{x > 0} = \frac{1}{\pi} e^{-x(1+y^2)}1_{x > 0}

Posté par
matheux14
re : Loi et Espérance conditionnelle 20-01-23 à 13:22

Comment vous faites pour calculer f_{Y | X} ?

Posté par
lionel52
re : Loi et Espérance conditionnelle 20-01-23 à 15:40

La loi de Y|X=x est tout simplement donnée par l'énoncé c'est une loi normale N(0,1/2x) ensuite faut juste remplacer...

Posté par
Ulmiere
re : Loi et Espérance conditionnelle 20-01-23 à 17:05

Prends ton temps et replace petit à petit. Soit f continue bornée,

E(f(Y,X)) = E(  E(f(Y,X) | X)  ) = \cdots en utilisant les propriétés classiques de l'espérance conditionnelle par rapport à une tribu et le fait que sous la mesure P(\cdot |X), Y est égale en loi à \dfrac{N}{\sqrt{2X}}, où N est une v.a le loi N(0,1) indépendante de X.

De manière équivalente, tu peux aussi écrire (c'est bien plus simple!)

E(e^{pY + qX}) = E(E(e^{pY + qX}|X)) = E(e^{qX}E(e^{pY}|X))

Et après, rebelotte, tu écris que Y = N/sqrt(2x) en loi donc la transformée de Laplace/Fourier (choisis en une) sachant X est donnée par E(e^{pY}|X) = E(e^{pN/\sqrt{2X}}|X) = e^{p^2/(2X)} P-ps etc

Posté par
matheux14
re : Loi et Espérance conditionnelle 21-01-23 à 21:33

Citation :
Prends ton temps et replace petit à petit. Soit f continue bornée,

E(f(Y,X)) = E(  E(f(Y,X) | X)  ) = \cdots en utilisant les propriétés classiques de l'espérance conditionnelle par rapport à une tribu et le fait que sous la mesure P(\cdot |X), Y est égale en loi à \dfrac{N}{\sqrt{2X}}, où N est une v.a le loi N(0,1) indépendante de X.

De manière équivalente, tu peux aussi écrire (c'est bien plus simple!)

E(e^{pY + qX}) = E(E(e^{pY + qX}|X)) = E(e^{qX}E(e^{pY}|X))

Et après, rebelotte, tu écris que Y = N/sqrt(2x) en loi donc la transformée de Laplace/Fourier (choisis en une) sachant X est donnée par E(e^{pY}|X) = E(e^{pN/\sqrt{2X}}|X) = e^{p^2/(2X)} P-ps etc


Je n'ai pas compris du tout.

Si on suppose que la densité d'une variable aléatoire X sachant une autre loi Y = y est donnée par \textbf{1}_{\R_+}(x) y^2 x e^{-x y} et que la loi Y est de densité \dfrac{1}{y^2} \textbf{1}_{[0, + \infty[}(y) par exemple. Et qu'on pose T = XY.

Alors la densité f du couple (X, Y) vaut

f(x, y) = f_{X | Y = y} f_Y (y) = \textbf{1}_{\R_+}(x) \dfrac{1}{y^2} \textbf{1}_{[0, + \infty[}(y) x e^{-x y}.

Pour vérifier si les variables aléatoires T et Y sont indépendantes ou pas,

Soit g une fonction continue bornée sur \R^2, on effectue le changement de variable (x, y) \mapsto (t = x y, y), de Jacobien y. Alors E(g(XY, Y)) = \int^{\infty}_0 \int^{\infty}_0 g(t, y) e^{-t} \dfrac{1}{y^2} dt dy.

On détermine la densité du couple (T, Y), et si cette densité s'écrit comme produit d'une fonction de t et d'une fonction de y, nous en déduisons que T et Y sont indépendantes et que T a la densité t e^{-t} \textbf{1}_{\R_+}(t).

Peut-être que c'est ce que Ulmiere, voulait me faire comprendre.. Mais bon,  il s'agit d'un exo que je posterai plus tard. Du coup ce message risque d'être effacé par les modérateurs.

Posté par
matheux14
re : Loi et Espérance conditionnelle 21-01-23 à 21:33

lionel52 @ 20-01-2023 à 12:37

Je trouve

f(x,y) = \frac{\sqrt{2x}}{\sqrt{2\pi}}e^{-xy^2}\frac{1}{\sqrt{\pi x}}e^{-x}1_{x > 0} = \frac{1}{\pi} e^{-x(1+y^2)}1_{x > 0}



Donc

1) Avec les notations du cours, la densité du couple (Y, X) vaut :

f(x, y) = f_{Y | X = x}(y) f_X (x) avec (Y | X = x) \rightsquigarrow \mathcal{N}\left(m = 0, ~\sigma^2 = \dfrac{1}{2x}\right)

Donc f_{Y | X = x}(y) = \dfrac{1}{\sigma \sqrt{2 \pi}} \exp\left(-\dfrac{(y - m)^2}{2 \sigma^2}\right)

= \dfrac{1}{\sqrt{2 \pi} \times \frac{1}{\sqrt{2x}}}\exp\left(-\dfrac{(y - 0)^2}{2 \frac{1}{2x}}\right)

\boxed{f_{Y | X = x}(y)= \sqrt{\dfrac{x}{\pi}} e^{-x y^2} \textbf{1}_{x > 0}}

\Longrightarrow f(x, y) = f_{Y | X = x}(y) f_X (x)

= \sqrt{\dfrac{x}{\pi}} e^{-x y^2} \dfrac{e^{-x}}{\sqrt{\pi x}}\textbf{1}_{x > 0}

= \sqrt{\dfrac{x}{\pi^2 x}}e^{-(xy^2 + x)}

\boxed{\boxed{f(x, y)= \dfrac{e^{-x(y^2 + 1)}}{\pi}}} est la loi du couple (Y, X).

Posté par
matheux14
re : Loi et Espérance conditionnelle 21-01-23 à 21:35

Citation :
\boxed{\boxed{f(x, y)= \dfrac{e^{-x(y^2 + 1)}}{\pi}{\red{\textbf{1}_{x > 0}}}}} est la loi du couple (Y, X).

Posté par
matheux14
re : Loi et Espérance conditionnelle 23-01-23 à 08:16

Posté par
Ulmiere
re : Loi et Espérance conditionnelle 23-01-23 à 12:41

Les y^2 que simplifient quand tu multiplies tes deux densités normalement

Si ce résultat est dans ton cours alors tu peux faire ça.
Si ce n'est pas dans ton cours, ou si tu n'es pas sûr de pouvoir utiliser cette formule, fais les choses petit à petit pour la redémontrer: pour tous x>0 et y réel

\begin{array}{lcl}
 \\ F_{(X,Y)}(x,y) &=& P(X\leqslant x, Y\leqslant y)
 \\ &=& E( P(X\leqslant x, Y\leqslant y  | X) )
 \\ &=& E( E(1_{\{X\leqslant x\}}1_{\{Y\leqslant y\}}  | X) )
 \\ &=& E(1_{\{X\leqslant x\}}E(1_{\{Y\leqslant y\}}|X))
 \\ \end{array}

Mais P-presque sûrement, E(1_{\{Y\leqslant y\}}|X) = P(N(0,2X)\leqslant y|X) = \int_{-\infty}^{y} \dfrac{\sqrt{X}}{\sqrt{\pi}} e^{-Xu^2} du =: \Phi_X(y).


Ensuite on finit le calcul

\begin{array}{lcl}
 \\ F_{(X,Y)}(x,y) &=& E(1_{\{X\leqslant x\}}E(1_{\{Y\leqslant y\}}|X))
 \\ &=& \int_0^x \Phi_t(y)f_X(t)dt
 \\ &=& \int_0^x \int_{-\infty}^{y} \dfrac{\sqrt{t}}{\sqrt{\pi}} e^{-tu^2}\dfrac{e^{-t}}{\sqrt{\pi t}}1_{\R_+^\ast}(t)  dudt
 \\ &=&  \int_0^x \int_{-\infty}^{y} \dfrac1{\pi} e^{-t(u^2+1)}1_{\R_+^\ast}(t)dudt
 \\ \end{array}

(Après Fubini, éventuellement), on lit directement la densité (t,u)\mapsto f_{(X,Y)}(t,u) sous l'intégrale.

Posté par
Ulmiere
re : Loi et Espérance conditionnelle 23-01-23 à 12:44

Il faut lire P\left(N\left(0,\dfrac{1}{2X}\right) \leqslant y |X\right)

Posté par
Ulmiere
re : Loi et Espérance conditionnelle 23-01-23 à 12:46

Et ce sont partout des \int_{-\infty}^x et pas des \int_0^x, pardonnez moi pour ce triple post, je suis maladroit

Posté par
matheux14
re : Loi et Espérance conditionnelle 23-01-23 à 15:48

Le résultat du 21-01-23 à 21:35 est donc faux ?

Posté par
matheux14
re : Loi et Espérance conditionnelle 23-01-23 à 16:28

Pourriez vous m'expliquer la notion de P-presque sûrement s'il vous plaît.

Posté par
matheux14
re : Loi et Espérance conditionnelle 23-01-23 à 16:41

Que veut dire =: ?

J'ai pas compris pourquoi P(N(0, 1/2X)\leqslant y|X) = \int_{-\infty}^{y} \dfrac{\sqrt{X}}{\sqrt{\pi}} e^{-Xu^2} du =: \Phi_X(y) ?

Et pourquoi E(1_{Y \le y} | X) =: \Phi_X(y) \Longrightarrow E(1_{\{X\leqslant x\}}E(1_{\{Y\leqslant y\}}|X)) =  \int_0^x \Phi_t(y)f_X(t)dt

Posté par
matheux14
re : Loi et Espérance conditionnelle 23-01-23 à 16:56

Citation :
(Après Fubini, éventuellement), on lit directement la densité (t,u)\mapsto f_{(X,Y)}(t,u) sous l'intégrale.


Je ne comprends pas là non plus..

Après calcul de cette intégrale on trouve normalement le résultat de f_{(X,Y)}(x,y) non ?

Posté par
matheux14
re : Loi et Espérance conditionnelle 23-01-23 à 17:23

\int_0^x \int_{-\infty}^{y} \dfrac1{\pi} e^{-t(u^2+1)}1_{\R_+^\ast}(t)dudt

Sous cette forme on est amené à calculer une intégrale de la forme \int^y_{-\infty} e^{-a t²} dt (presque celle de Gauss, puisque si y \to +\infty}, alors \int^y_{-\infty} e^{-a t²} dt = \int^{+\infty}_{-\infty} e^{-a t²} dt = \sqrt{\dfrac{\pi}{a}})

D'après le théorème de Fubini,

\int_{-\infty}^x \int_{-\infty}^{y} \dfrac1{\pi} e^{-t(u^2+1)}1_{\R_+^\ast}(t)dudt = \dfrac1{\pi} \int_{-\infty}^y \int_{-\infty}^{x} e^{-t(u^2+1)}1_{\R_+^\ast}(t)dt du

On calcule \int_{-\infty}^y \int_{-\infty}^{x} e^{-t(u^2+1)}1_{\R_+^\ast}(t)dt = -\dfrac{1}{a}\left[e^{-a t}\right]^x_{-\infty} avec a = u² + 1

\int_{-\infty}^y \int_{-\infty}^{x} e^{-t(u^2+1)}1_{\R_+^\ast}(t)dt = -\dfrac{1}{a}\left[e^{-a x} - \lim\limits_{x \to - \infty} e^{-a x}\right]

Or  \lim\limits_{x \to - \infty} e^{-a x} = + \infty

Ça coince de deux côtés...

Posté par
Ulmiere
re : Loi et Espérance conditionnelle 23-01-23 à 19:40

A := B est une notation pour A = B, mais avec en plus une définition du côté des deux points. J'ai mis les deux points du côté de \Phi_X(y), ce qui veut dire que je suis en train de définir la fonction \Phi.

-------

Dire qu'un évènement est vrai P-presque-sûrement, c'est dire qu'elle est vraie avec probabilité 1 (ou encore, que le contraire arrive avec probabilité 0).

-------

L'es égalités avec des espérances, sont des propriétés fondamentales de l'espérance conditionnelle.

* Si Z est une fonction mesurable (disons plutôt continue, à ton niveau) de X alors E(Z | X) = Z P-ps. Ce qui veut dire que la variable aléatoire E(Z|X) et la variable aléatoire Z prennent les mêmes valeurs, sauf éventuellement sur un ensemble \Omega' \subseteq \Omega tel que P(\Omega') = 0.

* Si Z est indépendante de X alors E(Z|X) = E(Z) P-ps

------

Cella là : E(1_{\{X\leqslant x\}}E(1_{\{Y\leqslant y\}}|X)) =  \int_0^x \Phi_t(y)f_X(t)dt n'est que l'application du théorème de transfert dans le cas où on a une variable (je parle de X!) à densité

* Si Z est à densité f_Z, alors pour tout fonction pas trop méchante , on a E(f(Z)) = \int_\R f(t)f_Z(t) dt


-------

Enfin, il n'y a aucun calcul à faire ! Si tu appliques le théorème de transfert avec f = 1_A avec A un évènement, alors tu peux remarquer que P(Z\in A) = E(f(Z)) = \int_\R 1_A(t)f_Z(t)dt = \int_A f_Z(t)dt

La densité se lit sous l'intégrale directement, sans aucun calcul. Il suffit d'appliquer cela avec Z = (X,Y) et A = ]-\infty,x]\times]-\infty,y]. La seule différence c'est qu'on est dans \R^2 et plus dans \R, donc ce sera une intégrale double (deux variables!) : un dtdu à la place de dt

Posté par
matheux14
re : Loi et Espérance conditionnelle 23-01-23 à 21:22

Citation :
Si Z est une fonction mesurable  (disons plutôt continue, à ton niveau)


Justement, mon prof faisait le lien entre la théorie de la mesure et les probabilités, pourriez-vous m'en dire plus ?

Posté par
matheux14
re : Loi et Espérance conditionnelle 24-01-23 à 16:02

Citation :
La densité se lit sous l'intégrale directement, sans aucun calcul. Il suffit d'appliquer cela avec Z = (X,Y) et A = ]-\infty,x]\times]-\infty,y]. La seule différence c'est qu'on est dans \R^2 et plus dans \R, donc ce sera une intégrale double (deux variables!) : un dtdu à la place de dt


Donc si je comprends bien, F_{(X,Y)}(x,y) =   \int_0^x \int_{-\infty}^{y} {\blue{\dfrac1{\pi} e^{-t(u^2+1)}1_{\R_+^\ast}(t)}} dudt \Longrightarrow f(x, y) = {\blue{\dfrac1{\pi} e^{-t(u^2+1)}1_{\R_+^\ast}(t)}}

Posté par
Ulmiere
re : Loi et Espérance conditionnelle 24-01-23 à 16:42

Je peux t'en dire autant que tu veux mais il faut que tu me dises ce que tu sais exactement de la théorie de la mesure pour ne pas que je t'assomme
Au niveau prépa, sans doute quasiment rien


matheux14 @ 24-01-2023 à 16:02

Citation :

Donc si je comprends bien, F_{(X,Y)}(x,y) =   \int_0^x \int_{-\infty}^{y} {\blue{\dfrac1{\pi} e^{-t(u^2+1)}1_{\R_+^\ast}(t)}} dudt \Longrightarrow f(x, y) = {\blue{\dfrac1{\pi} e^{-t(u^2+1)}1_{\R_+^\ast}(t)}}


Non, tu oublies plein de quantifieurs là. C'est le fait que tu aies la première égalité (avec un -\infty à la place du 0) pour tous x et y, qui fait que tu peux en déduire que pour \lambda presque tout couple (x,y), on a f(x,y) = \cdots, où \lambda est la mesure de Lebesgue.

Avec des mots simples, f(x,y) a le droit d'être un petit peu différent ici et là de l'expression annoncée, mais ces petites différences n'arrivent que sur un sous ensemble de \R^2 de mesure de Lebesgue nulle.

Posté par
Ulmiere
re : Loi et Espérance conditionnelle 24-01-23 à 16:50

Je vais te le dire autrement : si f est continue et que je te donne F : x\mapsto \int_{a}^x f(t)dt une primitive, alors cette primitive est C1 et tu peux en déduire f, en la dérivant. la dérivée de F apparait clairement sous l'intégrale.

C'est un peu la même chose, sauf que les fonctions ne sont plus forcément dérivables ou continues, et que l'intégrale n'est plus l'intégrale de Riemann habituelle.

En l'occurence ici, tout est C^2 donc sur ]0,\infty[, tu peux faire la même chose et dire que \dfrac{dF_X(\cdot, y)}{dx}(t) à y réel  fixé est \int_{-\infty}^y f_{(X,Y)}(t,u)du.

Donc f_{(X,Y)}(t,u) = \dfrac{d^2F_X}{dydx}(t,u) = \dfrac{d^2F_X}{dxdy}(t,u)

Posté par
matheux14
re : Loi et Espérance conditionnelle 24-01-23 à 18:54

D'accord, mais comment vous trouvez P(N(0,2X)\leqslant y|X) = \int_{-\infty}^{y} \dfrac{\sqrt{X}}{\sqrt{\pi}} e^{-Xu^2} du ?

Posté par
Ulmiere
re : Loi et Espérance conditionnelle 24-01-23 à 20:57

Encore une fois, c'est le théorème de transfert et la définiton de l'espérance conditionnelle. Je ne sais pas comment elle est définie dans ton cours, mais dans tous les cas E( truc | X) est touours une fonction mesurable de X.

On fixe y ------> il existe une fonction mesurable \phi(\cdot, y) telle que P(N(0,1/(2X)) \leqslant y | X) = E(1_{]-\infty,y]}(  N(0,1/(2X))  ) | X) = \phi(X, y).

Aussi, E(\phi(X,y)g(X)) = E(E(1_{]-\infty,y]}(  N(0,1/(2X))  ) | X)g(X) ) = E(E(1_{]-\infty,y]}(  N(0,1/(2X))  )g(X) | X) ) = E(1_{]-\infty,y]}(  N(0,1/(2X))  )g(X))

Comme N(0,1/(2X)) est égale en loi à 1/sqrt(2X) * N, avec N une N(0,1) indépendante de X, on applique le théorème de transfert, pour toute fonction mesurable g à la v.a (X,N).
On définit \psi(x,n) = g(x)1_{]-\infty,y]}(  n/\sqrt{2x}  ) = g(x)1_{]-\infty,\sqrt{2x}y]}(  n  ) et on note \gamma la densité gaussienne standard. Alors on a

E(\phi(X,y)g(X)) = E(\psi(X,N)) = \int\int \psi(x,n)f_X(x)\gamma(n)dndx = \int\int g(x)f_X(x)1_{]-\infty,y]}(  n/\sqrt{2x}  )\gamma(n)dndx = \int_\R g(x)f_X(x)\left(\int_\R1_{]-\infty,y]}(  n/\sqrt{2x}  )\gamma(n)dn\right)dx

Si tu fais le changement de vraible (t,u) =(x,n\sqrt{2x}) tu vas trouver une intégrale de la forme \int\h(t,y)g(t)f_X(t)du = E(h(X,y)g(X) et il ne reste plus qu'à identifier \phi(X,y) = E(...|X) à h(X,y) presque sûrement parce qu'elles ont la même intégrale contre g(X) pour toute fonction mesurable g

Posté par
Ulmiere
re : Loi et Espérance conditionnelle 24-01-23 à 20:58

E(\phi(X,y)g(X)) = E(\psi(X,N)) = \int\int \psi(x,n)f_X(x)\gamma(n)dndx = \int\int g(x)f_X(x)1_{]-\infty,y]}(  n/\sqrt{2x}  )\gamma(n)dndx = \int_\R g(x)f_X(x)\left(\int_\R1_{]-\infty,y]}(  n/\sqrt{2x}  )\gamma(n)dn\right)dx

Posté par
matheux14
re : Loi et Espérance conditionnelle 25-01-23 à 20:16

Ce n'était pas vraiment évident

P(N(0,2X)\leqslant y|X) = \int_{-\infty}^{y} \dfrac{\sqrt{X}}{\sqrt{\pi}} e^{-Xu^2} du.

Est-ce que cette forme est due à l'intervention de la densité gaussienne dans le raisonnement ?

Et on a X est une variable aléatoire suivant une loi de densité : f(x) = \dfrac{e^{-x}}{\sqrt{\pi x}}, pour x > 0, il y a une grande ressemblance entre les formules  \dfrac{\sqrt{X}}{\sqrt{\pi}} e^{-Xu^2} et \dfrac{e^{-x}}{\sqrt{\pi x}}.

Posté par
Ulmiere
re : Loi et Espérance conditionnelle 25-01-23 à 20:25

Ce qu'il y a sous l'intégrale, c'est simplement la densité de N(0,\sigma^2) avec \sigma^2 = 1/(2X) P-ps. Ce sont des mesures aléatoires.

Tout ceci n'est pas bien compliqué, mais pas niveau prépa. Tu verras tout ça bien en détail si tu poursuis les maths niveau bac+3 et alors ce sera limpide

Pour l'instant, je ne puis que te conseiller de bien te référer à ce qui est fait dans le cours et de ne pas trop t'aventurer dans la théorie de la mesure, qui est hors-programme. Parce que si tu tombes sur un correcteur ou un examinateur (à l'oral) un peu zélé, il va te défoncer pour avoir utilisé des choses que tu ne maitrises pas
Et je lui donnerais raison, dans l'absolu



Avec tout ça, on n'a fait que la question 1), quid de la 2) et de la 3) ?

Posté par
matheux14
re : Loi et Espérance conditionnelle 25-01-23 à 21:49

Citation :
Ce qu'il y a sous l'intégrale, c'est simplement la densité de N(0,\sigma^2) avec \sigma^2 = 1/(2X) P-ps. Ce sont des mesures aléatoires.


Pourriez vous détailler le calcul, où vous remplacez \sigma par 1/\sqrt{2X} s'il vous plaît.

2) X et Y sont indépendantes, donc la loi conditionnelle de X sachant Y est celle de X non ?

Posté par
Ulmiere
re : Loi et Espérance conditionnelle 26-01-23 à 11:53

C'est un calcul niveau lycée

\gamma_{(0,1/(2X)}(u) = \dfrac{1}{\sigma\sqrt{2\pi}} e^{-(u-0)^2/(2\sigma^2)}

2\sigma^2 = 2 / (2X) = 1/X donc 1/(2\sigma^2) = X
et \dfrac{1}{\sigma\sqrt{2\pi}} = \dfrac1{\sqrt{\cancel{2}\pi}} \times \sqrt{\cancel{2}X} = \sqrt{\dfrac{X}{\pi}}

Et après, tu remplaces :

 \\ \begin{array}{lcl}
 \\ P(N(0,1/(2X) \leqslant y | X) &=& E(1_{]-\infty,y]}( N(0,1/(2X) ) | X)
 \\ &=& \int_\R 1_{]-\infty,y]}(u)\gamma_{(0,1/(2X)}(u)du
 \\ &=& \int_{-\infty}^y \gamma_{(0,1/(2X)}(u)du
 \\ &=& \int_{-\infty}^y \dfrac{\sqrt{X}}{\sqrt{\pi}} e^{-Xu^2}du\quad P\text{-presque sûrement}
 \\ \end{array}



---------


X et Y ne sont pas indépendantes, sinon la réponse à la question 1 aurait été triviale, la densité aurait été f(y,x) = f_Y(y)f_X(x).

D'ailleurs, dans la question 1), on a trouvé la loi de (X,Y) et non de (Y,X) mais c'est presque pareil
F_{(Y,X)}(y,x) = P(Y\leqslant y, X\leqslant x) = P(X\leqslant x, Y\leqslant y ) = F_{(X,Y)}(x,y)

Posté par
matheux14
re : Loi et Espérance conditionnelle 26-01-23 à 12:42

Citation :
D'ailleurs, dans la question 1), on a trouvé la loi de (X,Y) et non de (Y,X) mais c'est presque pareil


Y a t il des cas où ce serait pas pareil ?

Ce serait le cas si X et Y étaient indépendante ?

Pour montrer que X et Y ne sont pas indépendante, je comme dans mon message du 21-01-23 à 21:33

Citation :
Si on suppose que la densité d'une variable aléatoire X sachant une autre loi Y = y est donnée par \textbf{1}_{\R_+}(x) y^2 x e^{-x y} et que la loi Y est de densité \dfrac{1}{y^2} \textbf{1}_{[0, + \infty[}(y) par exemple. Et qu'on pose T = XY.

Alors la densité f du couple (X, Y) vaut

f(x, y) = f_{X | Y = y} f_Y (y) = \textbf{1}_{\R_+}(x) \dfrac{1}{y^2} \textbf{1}_{[0, + \infty[}(y) x e^{-x y}.


Pour vérifier si les variables aléatoires T et Y sont indépendantes ou pas,

Soit g une fonction continue bornée sur \R^2, on effectue le changement de variable (x, y) \mapsto (t = x y, y), de Jacobien y. Alors E(g(XY, Y)) = \int^{\infty}_0 \int^{\infty}_0 g(t, y) e^{-t} \dfrac{1}{y^2} dt dy.

On détermine la densité du couple (T, Y), et si cette densité s'écrit comme produit d'une fonction de t et d'une fonction de y, nous en déduisons que T et Y sont indépendantes et que T a la densité t e^{-t} \textbf{1}_{\R_+}(t).
?

Ou autrement ?

Posté par
Ulmiere
re : Loi et Espérance conditionnelle 26-01-23 à 19:37

Si (X,Y) et (Y,X) ont même loi alors P(Y\in A, X\in B) = P((Y,X)\in A\times B) = P((X,Y)\in A\times B) = P(X\in A, Y\in B) pour tous A et B mesurables par rapport aux deux tribus \sigma(X) et \sigma(Y)

En particulier, si on prend B = \R, ça veut dire que P(Y\in A) = P(X\in A), pour tout A. Donc ça veut dire que X et Y auraient même loi.


Pour le reste, fais avec la méthode que tu préfères ou qui te semble le plus simple.
Par exemple, est-ce que la loi conditionnelle de X par rapport à Y est à densité ?

Posté par
matheux14
re : Loi et Espérance conditionnelle 26-01-23 à 20:32

La loi conditionnelle de Y par rapport X étant une loi normale de paramètres m = 0 et \sigma^2 = \dfrac{1}{2X}, on a montré que cette loi est à densité sur une partie de \R.

Par conséquent, la loi conditionnelle de X par rapport à Y est une loi à densité.

Posté par
matheux14
re : Loi et Espérance conditionnelle 28-01-23 à 21:39

Je résume rapidement :

1) f_{Y,X}(y, x) = f_X(x) \times f_{Y|X}(y|x)

f_X(x) est la densité de X donnée dans l'énoncé, et f_{Y|X}(y|x) est la densité conditionnelle de Y sachant X, qui est une loi normale de paramètres m = 0 et \sigma^2 = \dfrac{1}{2X}.

f_{Y,X}(y, x) = \dfrac{e^{-x}}{\sqrt{\pi x}} \times \dfrac{1}{\sqrt{2\pi \frac{1}{2x}}} \exp \left(-\frac{y^2}{2\frac{1}{2x}}\right) = \dfrac{2e^{-x-2y^2x}}{\sqrt{2\pi x}}

2) Pour calculer la loi conditionnelle de X sachant Y, on utilise la formule :
f_{X|Y}(x|y) = \dfrac{f_{X,Y}(x,y)}{f_Y(y)}

f_{X,Y}(x,y) est la densité jointe calculée précédemment, et f_Y(y) est la densité de Y.

f_Y(y) = \int_0^{\infty} f_{X,Y}(x,y) dx

On peut donc trouver :

f_{X|Y}(x|y) = \dfrac{\dfrac{e^{-x}}{\sqrt{\pi x}} \times \dfrac{1}{\sqrt{2\pi \frac{1}{2x}}} \exp \left(-\frac{y^2}{2\frac{1}{2x}}\right)}{\int_0^{\infty} \dfrac{e^{-x}}{\sqrt{\pi x}} \times \dfrac{1}{\sqrt{2\pi \frac{1}{2x}}} \exp \left(-\frac{y^2}{2\frac{1}{2x}}\right) dx}

La densité conditionnelle de X étant donné Y est :

f_{X|Y}(x|y) = \frac{f_{Y,X}(y,x)}{f_Y(y)} = \frac{\frac{e^{-x}}{\sqrt{\pi x}} \times \frac{1}{\sqrt{2\pi \frac{1}{2x}}} \exp \left(-\frac{y^2}{2\frac{1}{2x}}\right)}{\int_0^{\infty} \frac{e^{-x}}{\sqrt{\pi x}} \times \frac{1}{\sqrt{2\pi \frac{1}{2x}}} \exp \left(-\frac{y^2}{2\frac{1}{2x}}\right) dx}

Cependant, il est difficile de calculer l'intégrale. Il est donc plus facile de déduire la loi conditionnelle de X étant donné Y en utilisant la propriété de la densité conjointe suivante :
f_{X|Y}(x|y) = \frac{f_{Y,X}(y,x)}{f_Y(y)}

Avec :

f_{Y,X}(y, x) = \dfrac{e^{-x}}{\sqrt{\pi x}} \times \dfrac{1}{\sqrt{2\pi \frac{1}{2x}}} \exp \left(-\frac{y^2}{2\frac{1}{2x}}\right)

f_Y(y) = \int_0^{\infty} \dfrac{e^{-x}}{\sqrt{\pi x}} \times \dfrac{1}{\sqrt{2\pi \frac{1}{2x}}} \exp \left(-\frac{y^2}{2\frac{1}{2x}}\right) dx

On peut alors déduire la loi conditionnelle de X étant donné Y :

f_{X|Y}(x|y) = \frac{\frac{e^{-x}}{\sqrt{\pi x}} \times \frac{1}{\sqrt{2\pi \frac{1}{2x}}} \exp \left(-\frac{y^2}{2\frac{1}{2x}}\right)}{\int_0^{\infty} \frac{e^{-x}}{\sqrt{\pi x}} \times \frac{1}{\sqrt{2\pi \frac{1}{2x}}} \exp \left(-\frac{y^2}{2\frac{1}{2x}}\right) dx} = \frac{2xe^{-x}e^{-\frac{y^2}{2x}}}{\int_0^{\infty} 2xe^{-x}e^{-\frac{y^2}{2x}} dx}


3) Pour calculer E(X|Y), on utilise la formule de l'espérance conditionnelle :

E(X|Y) = \int_0^{\infty}xf_{X|Y}(x|y) dx

En utilisant la forme simplifiée de f_{X|Y}(x|y) obtenue précédemment :
f_{X|Y}(x|y) = \dfrac{2x e^{-x} e^{-\frac{y^2}{2x}}}{\sqrt{\pi}}

On peut alors calculer E(X|Y) :
E(X|Y) = \int_0^{\infty}x\dfrac{2x e^{-x} e^{-\frac{y^2}{2x}}}{\sqrt{\pi}}dx

E(X|Y) = \dfrac{2}{\sqrt{\pi}}\int_0^{\infty}xe^{-x} e^{-\frac{y^2}{2x}}dx

Posté par
matheux14
re : Loi et Espérance conditionnelle 30-01-23 à 11:30

Mes dernières réponses sont elles justes ?

Posté par
Ulmiere
re : Loi et Espérance conditionnelle 30-01-23 à 11:45

Le principe, c'est à peu près ça, mais les calculs sont très faux !

par exemple \dfrac{1}{\sqrt{2\pi \times \dfrac1{2x}}} \times \dfrac1{\sqrt{\pi x}}, ça fait 1/\pi et pas ce que tu penses. Même chose à l'intérieur des exponentielles quand tu divises par 1/(2x), tout est faux.

Posté par
matheux14
re : Loi et Espérance conditionnelle 30-01-23 à 17:06

Ah d'accord, du coup je revérifie mes calculs.

Pourriez vous apporter des précisions sur les parties qui ne sont pas rigoureuses dans la démonstration s'il vous plaît

Posté par
matheux14
re : Loi et Espérance conditionnelle 31-01-23 à 06:57

f_Y(y) = \int_{0}^{\infty} f_{Y, X}(y, x) dx =  \int_{0}^{\infty} \dfrac{1}{\pi}e^{-x(y^2 + 1)} dx = \dfrac{1}{\pi (y^2 + 1)}

(Il s'agit d'une forme standard de la fonction de Laplace, qui peut être évaluée en utilisant les tables de transformées de Laplace.)

Posté par
matheux14
re : Loi et Espérance conditionnelle 31-01-23 à 07:11

2) f_{X | Y}(x | y) = (y^2 + 1) e^{-x(y^2 + 1)}


3) E(X | Y) = \int_{0}^{\infty} x f_{X | Y}(x | y) d x

E(X | Y) = \int_{0}^{\infty} x(y^2 + 1)e^{-x(y^2 + 1)} dx = \int_{0}^{\infty} \frac{t}{y^2 + 1}e^{-t} dt

On peut effectuer un changement de variable en introduisant t = x(y^2 + 1). La limite d'intégration devient 0 à \infty en t, et la dérivée de x en fonction de t est \frac{dx}{dt} = \frac{1}{y^2 + 1}.

 \int_{0}^{\infty} x(y^2 + 1)e^{-x(y^2 + 1)} dx = \int_{0}^{\infty} \dfrac{t}{y^2 + 1}e^{-t} dt

Cette intégrale est une forme standard de l'intégrale de Laplace, qui peut être évaluée en utilisant les tables de transformées de Laplace. Le résultat est :

\dfrac{1}{y^2 + 1)}

Je trouve donc E(X | Y) = \dfrac{1}{y^2 + 1}



Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Inscription gratuite

Fiches en rapport

parmi 1580 fiches de maths

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !