Inscription / Connexion Nouveau Sujet
Niveau licence
Partager :

Estimateur de maximum de vraisemblance

Posté par
Lloyds
28-11-13 à 10:50

Bonjour,

J'ai un autre exercice qui me donne fil à retordre

Vous disposez d'un échantillon X1,...,Xn iid de taille n issu d'uns distribution uniforme U(\theta b,\theta h)

Supposez que vous sachiez que \theta b = 0 trouvez l'estimateur du maximum de vraisemblance de \theta h

L(X_1,...,X_n|\theta h) = f(xi) = \frac{1}{\theta h - \theta b} = \frac{1}{\theta h^n}

Log vraisemblance : LL(\theta) = ln(\frac{1}{\theta h^n})= -nln(\theta h)
\frac{dLL}{d\theta h} = \frac{-n}{\theta h} = 0

\theta h^{mv} = Max (X_i)

Je suis perdu à partir du moment ou on maximise la log vraisemblance, a quoi correspond finalement l'estimateur du maximum de vraisemblance ? Pourquoi on note \theta h^{mv} = Max (X_i) ? Pourquoi n'est-ce pas une valeur ?

Merci !

Posté par
sefedine
Estimateur de maximum de vraisemblance 28-11-13 à 21:57

Citation :
Je suis perdu à partir du moment ou on maximise la log vraisemblance


Tu dois résoudre l'équation -nln(h) = 0 pour obtenir l'estimateur du maximmum de vraisemblance de h.

En divisant chaque membre de l'équation ci-dessus par -n, on obtient :
ln(h) = 0
Puis on remarque que 0 n'est rien d'autre que ln(1), ce qui transforme l'écriture de notre équation en :
ln(h) = ln(1)
Enfin, nous obtenons une estimation  de h  qui est égale à  1.

Posté par
Lloyds
re : Estimateur de maximum de vraisemblance 28-11-13 à 22:51

Mais c'est pas plutot la dérivée de a log vraisemblance qu'on doit égaliser à 0 ?

Posté par
sefedine
Estimateur de maximum de vraisemblance 28-11-13 à 22:56

Ouais t'as parfaitement raison , c'est la dérivée du maxi qu'on doit égaliser à zéro

Posté par
Lloyds
re : Estimateur de maximum de vraisemblance 29-11-13 à 10:46

Du coup une fois qu'on est la :

\frac{-n}{\theta h} = 0
On en tire \theta h^{mv} = 0 non ?

Posté par
sefedine
Estimateur du maximum de vraisemblance 29-11-13 à 13:32

-n/h = 0 n'as pas de solution car en aucun cas h ne peut être égale à 0.

Toutefois, nous pouvons raisonner de la manière suivante :

Nous partons de l'idée que -n est une constante, alors pour que notre fraction soit nulle, il faut que h prenne une valeur beaucoup plus élevée ( h doit tendre vers l'infini).

Ce qui justifie le fait que hmv = Maxi(Xi)

Posté par
Lloyds
re : Estimateur de maximum de vraisemblance 29-11-13 à 21:59

Mais c'est quoi en fait : \theta h^{mv} = Max (X_i) ?

Posté par
sefedine
Estimateur de maximum de vraisemblance 30-11-13 à 13:08

h = Maxi(Xi) est la plus grande valeur que peut prendre les différentes échantillons.

Posté par
Lloyds
re : Estimateur de maximum de vraisemblance 01-12-13 à 09:19

Donc on écrit cela parce qu'on peut pas résoudre \frac{-n}{\theta h} = 0  ?

Posté par
sefedine
Estimateur de maximum de vraisemblance 01-12-13 à 11:10

Bien évidemment, un scientifique ne baisse jamais les bras; Il essaye toujours d'en trouver une solution au problème.

Posté par
Lloyds
re : Estimateur de maximum de vraisemblance 01-12-13 à 14:42

Ok merci encore !

Répondre à ce sujet

Seuls les membres peuvent poster sur le forum !

Vous devez être connecté pour poster :

Connexion / Inscription Poster un nouveau sujet
Une question ?
Besoin d'aide ?
(Gratuit)
Un modérateur est susceptible de supprimer toute contribution qui ne serait pas en relation avec le thème de discussion abordé, la ligne éditoriale du site, ou qui serait contraire à la loi.


Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Inscription gratuite

Fiches en rapport

parmi 1220 fiches de maths

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !