Chronique : La lampe merveilleuse

Ce billet est l’écrit sur lequel je me base pour ma chronique, chaque mercredi, lors de La Matinale, sur trensmissions.

Je me suis dit que le texte étant accessible au plus grand nombre, je pourrais le partager ici.

Ce que vous lisez a été le mercredi précédent, cependant certains passages peuvent être inédits (selon les aléas et contraintes du direct) !

L'intelligence artificielle

Chère auditrice, cher auditeur. Aujourd’hui je vais parler intelligence artificielle.

Alors, oui, moi aussi j’ai cédé à la tentation de parler de ce sujet.

Mais outre avoir embrassé la mode, j’aimerai faire une promotion pour une revue. Elle a toutes les qualités que je pourrais désirer : contenu de fond, écrit avec sérieux, sur des sujets très divers et sans devoir vendre un organe pour se la procurer.

Cette revue c’est Carnets de science, édité par CNRS Éditions. C’est une revue bi-annuelle, et le dernier numéro est sorti vendredi dernier. Ce qui ne va pas vous étonner, c’est le thème du dossier de ce numéro. Il s’agit bien de l’intelligence artificielle.


Alors revenons à nos moutons. Que vais-je bien pouvoir dire d’un peu original au sujet de l’intelligence artificielle ?

Je ne vais pas aborder les sujets les plus tendances. Que ça soit les voitures autonomes, les problèmes d’éthiques, les questions techniques, les évolutions futures, tout cela ne m’intéressera pas aujourd’hui. Non, moi ce qui va m’intéresser, c’est de questionner l’intelligence artificielle pour ce qu’elle est actuellement. Et aujourd’hui, quand on pense intelligence artificielle, on pense en fait apprentissage automatique, machine learning ou encore deep learning.


Ce qui étonne dans l’apprentissage automatique, c’est que, ce qui est appris, on n’y accède pas. On a programmé la machine pour apprendre d’un grand nombre de cas à classer des nouveaux. Par exemple, on montre des centaines de milliers de photos de chats à une machine, et cela lui permet d’apprendre à repérer de nouvelles photos de chats.

Mais la façon précise, dans les faits, par laquelle la machine procède pour repérer une nouvelle photo, on n’en sait pas grand chose.

L’intelligence artificielle devient la lampe merveilleuse d’Aladin. Le génie en sort si on la frotte, mais à l’intérieur, on ne sait pas trop ce qu’il s’y passe.


C’est un vrai problème. Par exemple dans le diagnostique médical, on aimerait s’assurer que la machine n’a pas appris des erreurs de diagnostique. On aimerait s’assurer un peu plus de leur fiabilité.

Ce sujet de l’emploi de l’intelligence artificielle en médecine a été abordé par Siddhartha Mukherjee, dont j’ai déjà fait référence lors de ma chronique du 25 octobre. Mukherjee propose dans le New Yorker du 13 Avril 2017 une analyse fort intéressante de ce problème.


Ce problème, c’est donc celui de la boite noire. L’intelligence artificielle est une boite noire nous donnant des réponses, mais on ne peut pas en extraire le contenu. Et, ça, c’est un positionnement ontologique très différent de ce que l’on a traditionnellement en informatique.

Traditionnellement, lorsque l’on fait des programmes informatiques, on décrit étape par étape à la machine ce qu’elle doit faire. Par exemple, on lui indique une série d’actions à réaliser pour fixer le moteur d’une voiture dans une usine d’assemblage.

Avec le deep learning, on n’indique pas les étapes que la machine devra suivre. On lui indique comment apprendre à fixer ses propres étapes. Cela se fait par des réseaux neuronaux, qu’on code, et les paramètres des neuronnes sont fixés par la machine elle-même lors de la phase d’apprentissage.


Mais ce passage, d’un savoir séquentiel, à un savoir – que j’appelle – émergent, est-ce bien nouveau ?

Lorsque que vous reconnaissez un chat, vous le reconnaissez parce que vous savez à quoi un chat ressemble. Vous n’avez pas cherché à vérifier une liste de critères explicites comme le nombre de ses pattes ou la frimousse. Votre connaissance du chat est une connaissance qui a émergé d’un apprentissage inconscient !

D’ailleurs, vous noterez que l’on parle de chat justement pour mettre un nom sur cette boite noire.

Pourquoi donc s’étonner que des boites noires soient efficaces et fiables d’un point de vue de l’intelligence artificielle ? C’est là le contenu de l’article de Mukherjee, et je vous laisse donc le soin de le lire si cela vous intéresse.


J’aimerais conclure cette chronique par une remarque. Une remarque assez simple, mais peut-être plus profonde que si je n’avais pas fait ce développement.

Aujourd’hui à l’école, quand on apprend quelque chose, on l’apprend comme si les savoirs étaient séquentiels. Par exemple, on vous apprend à lire syllabe par syllabe, puis mot à mot et enfin phrase par phrase. On vous apprend à compter en apprenant tout d’abord les chiffres, puis les nombres, puis les opérations sur ces nombres.

Pourtant, il n’y a pas de raison a priori pour préférer un apprentissage séquentiel à un apprentissage par boite noire. D’ailleurs, les recherches en neurosciences montrent, par exemple, que l’apprentissage du langage chez le bébé ne se fait pas du tout par décomposition des phrases en mots et en syllabes.

L’intelligence artificielle ne serait-elle donc pas un argument pour fonder une nouvelle façon d’apprendre aux humains ?


Peut-être qu’à l’avenir on profitera de ce bouleversement pour en apprendre plus sur nous, sur notre propre intelligence. Même si aucune intelligence artificielle ne sait actuellement s’il y a des lamas roses au pôle nord, nous n’avons peut-être pas besoin d’attendre qu’une intelligence artificielle soit vraiment intelligente pour dire des choses intéressantes.


13 commentaires

Une question simplement, sur la fin de ton propos : tu questionnes l’apprentissage par savoir séquentiel, en disant qu’il y a peut-être d’autres perspectives qui sont possibles. La question que je me pose, c’est : peut-on vraiment acquérir quelque chose par savoir émergent ? Je veux dire, bombarder l’apprenant de stimuli pour qu’il comprenne, par exemple, les règles de lecture, est-ce vraiment pertinent ? N’est-il pas plus légitime de lui faire apprendre les règles, tout en l’exposant à un milieu de lecture de plus en plus riche (comme on le fait maintenant), pour marier le savoir conceptuel et celui empirique ?


Je me rends compte que j’ai du mal à exprimer mes idées, j’espère que ma remarque est compréhensible malgré tout :/

+0 -0

Je comprends tout à fait ta remarque, et je me pose évidemment aussi la question.

À vrai dire, je ne saurai pas justifier rigoureusement d’une telle affirmation. C’est la raison pour laquelle je ne suis pas non plus très affirmatif.

En revanche, j’observe tout de même dans mon microcosme que l’on peut apprendre autrement. C’est par exemple ce qu’on entend quand on dit « apprendre par la pratique » ou « apprendre par immersion ».

Si on apprend bien les langues étrangères en allant à l’étranger et en s’immergeant totalement, c’est peut-être parce que c’est plus efficace et pas seulement plus long dans la durée.

Pourrait-on faire un parallèle entre la dualité apprentissage séquentiel/apprentissage émergent et celle raison/émotions ? Apprendre par émergence ne serait-il pas un peu équivalent à se persuader (et non se convaincre) de quelque chose ?

Par exemple, pourrais-je me faire une opinion sur l’homosexualité sans mener un raisonnement mais simplement par l’expérience, par exemple en côtoyant des personnes homosexuelles ?

+0 -0

Pourrait-on faire un parallèle entre la dualité apprentissage séquentiel/apprentissage émergent et celle raison/émotions ? Apprendre par émergence ne serait-il pas un peu équivalent à se persuader (et non se convaincre) de quelque chose ?

Ça serait proposer que l’apprentissage émergent ne soit pas une forme de rationalité. Mais c’est une thèse que je n’adopte pas, et qui ne me plaît pas particulièrement.

Mais je pense que cette question mérite développement (dans lequel tu pourrais te lancer, par ailleurs). Quel est le fondement logique des connaissances obtenues par intelligence artificielle ?

Si on apprend bien les langues étrangères en allant à l’étranger et en s’immergeant totalement, c’est peut-être parce que c’est plus efficace et pas seulement plus long dans la durée.

L’avantage d’apprendre une langue à l’étranger, c’est que tu pratiques. Je veux dire, selon les estimations sur le sujet, obtenir un niveau d’anglais B2 (ce qui st un niveau suffisant pour beaucoup de gens), si c’est fait sérieusement, demande 600 à 1000h de contacts avec l’anglais (cours, lecture, exercices, dialoguer avec quelqu’un). Le faire en immersion te permet de te forcer à pratiquer, en étant actif (car à priori quand tu es au Royaume-Uni, ton français ne va pas t’aider), à un rythme soutenu et sans efforts importants (car c’est confondu avec ton quotidien).

Mais oui, les gens peuvent apprendre une langue à priori sans lire un livre de grammaire. Mais je dirais que c’est plus long et moins efficace. Typiquement, en ayant pas connaissance des règles de la langue, sortir des champs battus et les erreurs vont se multiplier vite. Car ils devront avoir un retour sur ces éléments avant d’assimiler la construction. En tout cas je l’ai constaté parmi ceux qui ont choisi cette voie là.

Et cela me paraît encore plus compliqué pour quelque chose où la logique est importante du genre les maths ou la science qui sont peuplés de règles où l’approximation n’est pas vraiment autorisée.

+2 -0

Pourrait-on faire un parallèle entre la dualité apprentissage séquentiel/apprentissage émergent et celle raison/émotions ? Apprendre par émergence ne serait-il pas un peu équivalent à se persuader (et non se convaincre) de quelque chose ?

Vayel

Hum, j’aurais plutôt donné (c’est déjà suggéré dans mon premier message) une équivalence entre savoir séquentiel/émergent avec connaissance théorique/pratique. Typiquement, j’ai beau apprendre toute la doc de PHP (ou quoi que ce soit), je n’ai guère d’expérience, je ferai sans doute des erreur bêtes, que des personnes qui ont pratiqués pendant des ans ne feraient plus.
Mais, et c’est le lien avec ta remarque, aucune forme de ces connaissances n’est vraiment émotionnelle. Pour faire appel à des notions de psychologie, la connaissance théorique est stockée dans la mémoire épisodique (je me souviens d’avoir appris telle chose à tel moment) et sémantique (je sais qu’il faut utiliser telle chose signifie/implique telle autre, sans que je me souvienne plus comment l’avoir appris) ; la connaissance pratique, elle, est stockée dans la mémoire sémantique également, ainsi que celle non-déclarative (e.g. tu sais faire du vélo ou jouer du Rachmaninov, mais tu aurais pas forcément de facilité à décrire toutes tes actions). Mais, tu le vois, aucune de ces mémoires ne fait vraiment appel à l’émotion.
Peut-être l’origine de ta remarque tient-elle à ce que tu assimiles le non-déclaratif à l’instinctif et donc à l’émotionnel ?

+0 -0

Peut-être l’origine de ta remarque tient-elle à ce que tu assimiles le non-déclaratif à l’instinctif et donc à l’émotionnel ?

Dwayn

Ouais. Comment peux-tu t’assurer que quelque chose est rationnel si tu ne peux pas le décrire, l’expliquer ?

+0 -0

Pourtant, il n’y a pas de raison a priori pour préférer un apprentissage séquentiel à un apprentissage par boite noire.

Est-ce que l’on apprends vraiment à lire ou des choses de façon "boite noire" d’après vous ? Je veux dire par là que même si l’apprentissage n’est pas forcement séquentiel de façon direct, peut-être que notre cerveau plongé dans le bain fait émerger lui-même les patterns pertinents (comme les sous-couches d’un réseau de neurones) non ? Est-ce que nos sous-couches de nos réseaux humains ont du sens ? Si je ne dis pas de bêtise quand on parle de boîte noir c’est surtout car on ne trouve aucun sens aux sous-couches du réseau, le résultat émerge de l’ensemble. C’est vraiment le cas aussi dans notre apprentissage humain ?

Par exemple, on montre des centaines de milliers de photos de chats à une machine, et cela lui permet d’apprendre à repérer de nouvelles photos de chats.

Un bébé de 3 ans à besoin de voir uniquement une fois ou deux un chat pour pouvoir le reconnaitre (et pas seulement visuellement, il reconnaitra le bruit du chat, un chat en dessin sur un livre etc.). Une IA a besoin de millions d’expositions aux images pour pouvoir les reconnaitre. Et quand on sait comment fonctionne un réseau de neurones, c’est une caractéristique intrinsèque à la méthode. L’IA apprend très progressivement contrairement à notre cerveau qui fait des bons extraordinaires à chaque itération. Bref, quand on me dit que l’IA sera un jour plus "intelligente" que l’être humain, je rigole bien… :p


PS : Paradoxalement, les sciences comportementales nous apprennent que les humains sont naturellement très mauvais pour manipuler les statistiques et extraire l’information pertinente. L’IA actuelle ressemble plus à un homo-oeconomicus de silicone qu’à un vrai être humain.

+0 -0

Un bébé de 3 ans à besoin de voir uniquement une fois ou deux un chat pour pouvoir le reconnaitre (et pas seulement visuellement, il reconnaitra le bruit du chat, un chat en dessin sur un livre etc.).

T’as des sources là-dessus ? Parce que ça ressemble à une affirmation au doigt mouillé qui ne tient pas en compte le fait le gamin n’est pas exposé qu’à des chats et qu’on lui pointe du doigt les trucs qui sont différents mais semblables comme les chiens. En gros, même si il a vu qu’une dizaine de chats dans sa vie, il a aussi vue une dizaine de chiens, ce qui l’aide à discriminer les choses et les mettre dans des cases, et n’est pas vraiment comparable à ce que fait une IA. Je suis pas sûr que si tu élèves un gamin de la même façon qu’une IA (donc en le bombardant d’un type unique d’information et en lui demandant seulement la ségrégation chat/pas chat), il s’en sortirait en seulement 3 itérations ou même 100.

T’as des sources là-dessus ? Parce que ça ressemble à une affirmation au doigt mouillé qui ne tient pas en compte le fait le gamin n’est pas exposé qu’à des chats et qu’on lui pointe du doigt les trucs qui sont différents mais semblables comme les chiens.

Je n’ai pas de sources qui me viennent en tête mais ça me semble assez facile à établir qu’un humain apprend a partir d’un très petit nombre d’expositions. Imagine que je montre un nouvel objet que tu n’as jamais vu avant, tu sera quasi immédiatement capable de le reconnaitre à l’avenir et d’en reconnaitre des de couleurs différentes ou de forme très similaires. Globalement notre cerveau généralise très rapidement, il n’a pas besoin de milliers/millions d’interactions car cela n’arrive jamais dans la vie de tous les jours. Alors oui peut-être que quand je dis ’une seule fois" j’exagère un peu, tu comprends l’idée je pense. :p

+0 -1

Imagine que je montre un nouvel objet que tu n’as jamais vu avant, tu sera quasi immédiatement capable de le reconnaitre à l’avenir et d’en reconnaitre des de couleurs différentes ou de forme très similaires. Globalement notre cerveau généralise très rapidement, il n’a pas besoin de milliers/millions d’interactions car cela n’arrive jamais dans la vie de tous les jours.

Premièrement j’en doute fort. Si je te montre une amphibole ou même 10, tu seras incapable de la différencier d’un pyroxène. Pire, je te montre seulement de l’actinote parmi mes 10 amphiboles, tu seras incapable de voir que le glaucophane est aussi une amphibole. Ce n’est qu’après s’être exercé sur des centaines de minéraux que l’humain et capable de les différencier à l’œil (et si il y a un minéral exotique au milieu, tu peux être sûr qu’il va se planter).

De la même façon, si tu ne montres que des chats norvégiens à un humain et que tu lui montres un chat Persan, je suis pas 100% convaincu qu’il te dira avec certitude que c’est bien la même espèce. Si tu lui montres un fennec par contre, il y a des chances qu’il te dise que c’est un chat avec des grandes oreilles.

Deuxièmement, même si c’était vrai, ce que tu dis n’adresse pas le point important de mon message : un humain aura été exposé à une classification de tous les objets qu’il voit, et pas seulement d’un type d’objet. Si tu as vu des amphiboles et des pyroxènes, faire la différence entre les deux demande un nombre d’observations beaucoup plus faible que si tu n’as vu que des pyroxènes. Ce sera d’autant plus facile si il y a un gus pour t’expliquer les différences visibles entre les deux que si tu dois essayer de les déterminer toi-même juste sur la base d’une dizaine d’échantillons.

+0 -0

L’avantage d’apprendre une langue à l’étranger, c’est que tu pratiques. Je veux dire, selon les estimations sur le sujet, obtenir un niveau d’anglais B2 (ce qui st un niveau suffisant pour beaucoup de gens), si c’est fait sérieusement, demande 600 à 1000h de contacts avec l’anglais (cours, lecture, exercices, dialoguer avec quelqu’un). Le faire en immersion te permet de te forcer à pratiquer, en étant actif (car à priori quand tu es au Royaume-Uni, ton français ne va pas t’aider), à un rythme soutenu et sans efforts importants (car c’est confondu avec ton quotidien).

C’est pour cette raison que je pose la question sans avoir de conviction forte. Mais je ne pense pas qu’on puisse évacuer aussi rapidement que tu le fais la possibilité d’un apprentissage plus efficace.

Hum, j’aurais plutôt donné (c’est déjà suggéré dans mon premier message) une équivalence entre savoir séquentiel/émergent avec connaissance théorique/pratique.

Je n’aime pas cette équivalence pour deux raisons.

  • La première c’est qu’un apprentissage séquentiel peut tirer autant de la théorie que de la pratique. Une recette de cuisine est tout à fait séquentielle, mais bien malin qui pourra dire si elle relève de la théorie de ou de la pratique.
  • La deuxième, c’est qu’un apprentissage émergent ne se positionne pas sur une distinction entre théorie et pratique. L’apprentissage se fait de façon obscure, sans que l’on puisse dire s’il se structure sur une théorie (alors inconsciente) ou pas.

Rien ne dit que les réseaux neuronnaux obtenus par apprentissage automatique ne correspondent pas à une théorisation du problème enseigné.

On sait qu’ils sont établis par exposition, mais ce qui est obtenu n’est pas clairement identifié.

Ouais. Comment peux-tu t’assurer que quelque chose est rationnel si tu ne peux pas le décrire, l’expliquer ?

Je te mets au défi de m’expliquer pourquoi l’eau se gèle à 0 et bout à 100.

Est-ce que l’on apprends vraiment à lire ou des choses de façon "boite noire" d’après vous ?

Il faudrait préciser un test pour qualifier l’apprentissage. C’est une question difficile, et je ne pense pas que ça soit une bonne porte d’entrée pour traiter du problème.

Qu’est-ce que ça veut dire « apprendre vraiment à » ?

C’est pour cette raison que je pose la question sans avoir de conviction forte. Mais je ne pense pas qu’on puisse évacuer aussi rapidement que tu le fais la possibilité d’un apprentissage plus efficace.

En fait cela dépend de la personne et du niveau souhaité à atteindre. Je veux die, nul doute que si tu veux apprendre un anglais du quotidien, aller vivre quelques mois dans un pays anglophone c’est très efficace. Si ton but est d’acquérir un niveau littéraire, c’est probablement pas suffisant (manque de vocabulaire, compréhension grammaticale pauvre).

L’immersion est bon pour l’oral car cela te force à pratiquer régulièrement avec des gens différents : prononciations, accents, rythme débit de parole, etc. Cela rend le cerveau plus souple que si tu apprends avec une seule autre personne tout le long de ton apprentissage.

Et nul doute que c’est plus efficace que pour ceux où faire des exercices papiers ou lire des bouquins de grammaire c’est énervant. C’est plus ludique, plus motivant.

+0 -0
Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte