Negative Loglikelihood

L'auteur de ce sujet a trouvé une solution à son problème.
Auteur du sujet

Bonjour ! Je suis en train de suivre un cours (tuto) sur le deeplearning qui commence par les réseaux de neurones. Quand ils introduisent une loss function (je ne sais même pas comment le traduire), ils parlent du "negativ log-likelihood". Sauf que je ne trouve pas de ressources en français m'expliquant clairement ce que c'est. Je comprend les maths écrit mais quand c'est en anglais et un peu compliqué j'ai du mal à tout saisir. Du coup, quelqu'un pourrait-il m'éclairer, ou me donner le nom français de cette fonction ? ^^

Merci !

+0 -0

loss function = fonction de perte, on parle souvent de regret. En fait techniquement il s'agit d'une fonction objectif comme une autre, la plupart du temps l'objectif du probleme dual au probleme initial.

likelihood = vraisemblance

Ensuite, si ta question est pourquoi minimiser l'opposee de la vraisemblance, c'est parce que c'est souvent plus facile, mais evidemment equivalent, a maximiser la vraisemblance.

Si ta question est pourquoi le log, alors c'est parce qu'il est plus facile d'optimiser une somme qu'un produit, notamment lorsqu'intervient des calculs de derivee. La vraisemblance etant justement par definition un produit, passer au log facilite les calculs.

Si la question est pourquoi la vraisemblance alors je te renvoie a un cours d'estimation.

Édité par KFC

+0 -0
  • Fonction de perte
  • Logarithme de la fonction de vraisemblance.

En général, un bon truc pour traduire les termes scientifiques, c'est de les chercher dans wikipedia Anglais et de regarder le même article dans une autre langue par le biais des liens qui sont à gauche.

Edit : Grillé par KFC

Édité par Davidbrcz

+0 -0
Vous devez être connecté pour pouvoir poster un message.
Connexion

Pas encore inscrit ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte