ML problème pendant la validation

a marqué ce sujet comme résolu.

Salut,

Je travaille sur un projet ML pour un amis qui rencontre un bug et à vrai dire, je me demande également d’où viens le soucis

C’est un model qui semble réussir à s’entrainer mais quand nous faisons la validation avec les données d’entraînement, on obtient un résultat très loin de ce que nous avions pendant l’entraînement. (C’est ok que ça soit pas identique mais ça devrait être très proche)

Lien du repo : https://github.com/Futurabeast/futura-face-tracker/blob/master/face_model/

Pendant l’entraînement :

image.png
image.png

Après l’entrainement :

image.png
image.png

Le model prédit 37 floats en orange et on attend ce qui est en bleu. On remarque que durant l’entrainement le model arrive à s’entrainer et s’approcher du résultat et sur la même epoch après l’entraînement, on a une phase de validation pour tester rapidement j’ai repris des donnés d’entrainement et les ai redonné au model pour voir si le model me donne bien la même chose (ou du moins proche) que ce que j’avais pendant la phase d' entrainement. Ce n’est pas le cas et le résultat a rien a voir

Lien d’un test du model : https://wandb.ai/loucass003/FuturaFaceTacker/runs/3qrvmi84?workspace=user-loucass003

+0 -0
Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte