Les réseaux neuronaux, c'est un sujet assez complexe où tu n'auras pas d'autre choix que de te lancer dans de la lecture de thèse set de recherches. C'est un sujet qui n'est pas suffisamment développé pour qu'il y ait beaucoup de lecture de vulgarisation.
Euh, non. On ne peut pas dire ça.
Les réseaux de neurones sont un modèle théorique connu depuis la fin des années 1950 (c'est-à-dire que c'est encore plus ancien que les premières expressions régulières, pour te situer… et c'est pas étonnant puisque les expressions régulières ont été créées pour enrichir la théorie des réseaux de neurones, à l'origine) et les applications concrètes du Perceptron sont connues depuis les années 80.
Que ce modèle soit encore un sujet d'étude et de recherche actif (comme le sont les automates, d'ailleurs), soit, mais de là à dire que "le domaine n'est pas assez développé", il ne faut pas pousser : il est devenu banal aujourd'hui d'essayer de coupler un réseau de neurones avec un algo génétique glouton comme le filtre particulaire juste pour se marrer et voir ce que ça donne. Qui plus est le machine learning ne se résume pas aux réseaux de neurones, il existe des tas d'autres algorithmes intéressants, comme le boosting qui est devenu très populaire durant la dernière décennie.
Vraiment, c'est loin d'être un vague sujet dont on a à peine gratté la surface.
Par contre je rejoins mes VDD en ce qui concerne les prérequis : le réseau de neurones le plus banal (le perceptron de Rosenblatt, justement) demande au minimum de maîtriser les dérivées partielles pour en saisir le fonctionnement.