Salut,
L’IA c’est un avant tout un champ d’étude, très vaste, et qui n’est pas facile à définir.
on sait que ça fournis des résultats utilisable, mais pas forcément comment les algos font pour les fournir, on sait pas vraiment si le résultat a été obtenue par le raisonnement qu’on voulait ou non.
Cette remarque s’applique aux algorithmes issus du Deep Learning (qui ont connu un regain d’intérêt ces dernières années) mais ce ne sont pas les seuls algorithmes qu’on trouve en IA, bien au contraire !
Pour certaines alternatives on dispose d’une méthode formelle et de résultats précis, démontrables.
(On veut faire apprendre a notre algo la reconnaissance de husky, on fournit un train-set de photo de husky ou il y a de la neige, est ce que l’algo "apprend" le huksy uniquement ou il retient aussi la neige ? Donc si je lui fournis une photo de huksy sans neige ça marche toujours bien ?)
Très bonne remarque. C’est un problème non résolu à l’heure actuelle (et je doute qu’on le résolve un jour, c’est inhérent à l’apprentissage). C’est à l’expert (le programmeur, etc… ) de bien choisir ses données d’apprentissages pour vérifier qu’elles ne sont pas biaisées. Cela peut sembler simple en théorie mais c’est assez difficile en pratique. Régulièrement des gens se font piéger.
C’est une anecdote à partager sur ce sujet. Des gens (je ne sais plus qui) essayaient de développer une application pour apprendre à distinguer des champs (cultures) sur la base de photo. Les données avaient été ramassées par des gens en voiture avec l’appareil photo posé devant le pare-brise, avec des photos prises à intervalle de temps régulier.
Le hasard a fait que sur toutes les photos concernant un type de culture, la marque de la voiture était visible sur ces photos (sur ces modèles de voiture où t’as le truc qui dépasse à l’avant du capot). Sur les autres photo, elle ne l’était pas (appareil photo déplacé).
Ces personnes obtenaient de très bon résultats à l’entraînement, et ont cru leur problème résolu. Malheureusement, lors des tests en condition réelle, rien n’a fonctionné. En fait, leur algorithme s’était spécialisé dans la reconnaissance de la marque de la voiture, et ignorait complètement le reste de l’image.
Alors je me demande, comment l’IA a réussi à s’emparer des avancé sur le TAL qui est un domaine, a ma connaissance (maigre aussi), très formel ? On avance plus avec les théories des langages et les algos/outils classique ? je sais pas ça me parais dangereux de laisser ça a l’IA.
Comme je disais, l’IA c’est très vaste. Les outils que tu décris ici appartenaient déjà - si on veut - au domaine de l’IA.
Les raisons de la réussite du Deep Learning sont multiples et certainement pas uni-factorielle. L’abondance de données d’entraînement est une raison importante, la puissance de calcul des GPU aussi. Heuristiquement, c’est ce qui marche le mieux en pratique aujourd’hui, c’est pourquoi on retrouve ces techniques sur les softwares destinés à une exploitation commerciale.
Pour autant les "vieilles" méthodes n’ont pas été abandonnées et continuent d’être développées. Malheureusement (ou heureusement ?) elles bénéficient de moins d’exposition médiatique car éclipsées par leurs concurrentes. Toutefois aujourd’hui la qualité des recherches dans ces domaines est souvent évaluée sur la base des résultats expérimentaux (ce qui peut être regrettable sur le long terme, car par définition cela favorise une méthode connue hyper optimisée sur de nouvelles idées immatures). Par conséquent les méthodes classiques ont un retard qu’elles peinent à combler.
Néanmoins on est pas à l’abri d’ici quelques années de voir une révolution émerger de ces domaines concurrent "discrets". Rien ne prouve que le Deep est la solution ultime à tout les problèmes. Aujourd’hui ça marche. Demain, eh bien, c’est demain… et on verra bien quand on y sera !