Vraisemblance en statistique

a marqué ce sujet comme résolu.
Banni

Voilà comment je vois ça. On a un modèle statistique et une loi recherchée. La "surprise moyenne" quand on fait l’hypothèse d’une loi du modèle est atteinte lorsque cette loi est la bonne. Cette surprise moyenne, c’est l’espérance de log(p(X))-\log(p(X)) avec pp la densité de la loi choisie. Le fait qu’elle soit minimisée quand pp est la bonne densitée revient à dire que la divergence de Kullback-Leibler est toujours positive.

Cette "surprise moyenne" peut être estimée (pour toute loi du modèle) par Monte-Carlo, et on choisit la loi minimisant cet estimateur. Ça donne l’estimateur du maximum de vraisemblance.

Edit : Pour une interprétation de la vraisemblance, je ne sais pas trop quoi dire…

+0 -1

Salut,

La vraisemblance indique la probabilité d’observer les données en questions sachant que elles sont générée par une loi de paramètre θ\theta. Par exemple si tu supposes que tu as une loi normale, tu vas chercher l’espérance et la variance qui maximisent la probabilité d’observer les données réellement observées. En un sens c’est très intuitif (et bayésien :p ).

En pratique, on suppose l’indépendance des échantillons, donc on peut estimer la vraisemblance de l’ensemble comme le produit des vraisemblances individuelles, et on utilise le log pour rendre le tout additif et pouvoir trouver la solution facilement.

+1 -0
Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte