Bonjour,
je suis en train de bosser sur les CNN.
Il y a un truc que je ne suis pas sur d’avoir compris: si on a une couche de convolution suivi d’une couche de ReLU, quelle est la fonction d’activation des neurones de la couche de convolution ? Est-ce Id() tout simplement, c’est à dire qu’ils ne font que sommer leurs inputs en fonction des poids synaptiques ? Il ne me semble pas, puisqu’il y a un threshold à prendre en compte, ce qui n’aurait pas de sens… Mais s’il s’agit d’une fonction d’activation classique comme la sigmoide, alors je ne vois pas l’intérêt d’une couche ReLU alors qu’on est déja "non-linéaire"…
Il est possible que tout simplement les papiers qui parlent de threshold incluent la "non-linéarité" au niveau de la convolution, là où d’autres font la distinction, mais j’aimerais être sur de ma compréhension.
Merci d’avance, en tout cas merci d’avoir lu jusqu’ici