Licence CC BY

Retours sur la création d’une IA

La semaine dernière, je rendais public « Ask Nietzsche », une IA de philosophie morale. Et ce faisant, j’ai appris beaucoup de choses, que je vais vous partager ici.

L’ergonomie, c’est important

Le contrat d’utilisation, c’était que je fournissais une IA de philosophie morale, qui indiquait si la proposition fournie par l’utilisateur était quelque chose de bien, de mal, de neutre, de paradoxal, etc. De plus cette IA ne comprenait que des entrées saisies en anglais.

Visiblement mon interface n’était pas assez claire, parce que beaucoup de saisies ont été faites en français (voire même sur des noms propres qu’aucune IA n’avait la moindre chance de connaitre). Mais surtout, il y avait beaucoup de questions trop ouvertes, de phrases qui ne pouvaient pas être comprises selon un axe bien/mal (comme des questions en « qu’est-ce que… » ou « qui est-ce que… »).

Ce que j’en retiens, c’est que quand on attend une saisie utilisateur libre, on dois s’assurer que les contraintes sont bien comprises, avec assez de textes explicatifs et d’exemples.

Vous êtes des psychopathes (mais des gentils)

Je n’avais pas prévu de logguer les entrées utilisateur, mais en les voyant passer en temps réel dans les logs, je me suis dit qu’il fallait faire quelque chose. Je me suis rappelé que mes logs étaient conservés sur une semaine, et donc qu’en fait je pouvais les récupérer :

zcat -f access_log* | grep morale\?s | cut -d ' ' -f 7 | cut -c30- | sort > ~/words_urlencoded.txt

J’obtiens donc la liste des 1950 demandes qui ont été faites à Ask Nietzsche, ce qui m’a permit de faire ce nuage de mots qui explique très bien pourquoi j’ai voulu faire cette analyse :

Nuage des mots saisis sur Ask Nietzsch
Nuage des mots saisis sur Ask Nietzsch

Le mot « kill » apparait 192 fois dans 1950 demandes.

J’ai aussi 207 demandes qui commencent par « Should », « What », « Who » ou « Why » et donc tombent dans les cas des questions non traitables par l’IA telles que décrites au paragraphe précédent.

Notez que la rotation des logs se fait sur une semaine et qu’ils ne sont pas sauvegardés, donc d’ici une semaine toute trace de vos expériences aura disparu pour toujours :)

On peut prétendre que n’importe quoi est de la (mauvaise) IA

Parce qu’il n’y avait pas du tout d’IA dans ce projet.

L’idée

En fait, l’idée du projet vient du fait que, en l’espace de quelques jours, sont tombés cet article sur l’utilisation réelle de l’IA dans les startups et la première version de Ask Delphi, dont les premiers résultats étaient désastreux1, au point qu’on pouvait se demander s’il y avait vraiment des données d’entrainement ou juste un résultat envoyé au pif.

L’idée était donc de créer une « IA » qui semblait répondre à peu près correctement, de l’enrober dans assez d’enfumage pour laisser croire que ses faiblesses étaient normales, puis de donner ça au public pour voir comment il réagirait – sans aucune prétention scientifique.

La réalisation

Les contraintes étaient simples :

  • La même entrée devrait toujours renvoyer le même résultat (sinon le côté aléatoire est évident),
  • Les résultats devraient paraitre plus stables que ceux de Delphi, notamment sur les problématiques de casse ou de contractions en anglais (« is not » et « isn’t » doivent renvoyer la même chose).
  • Le bot doit répondre qu’il ne comprends pas si l’entrée n’a manifestement aucun sens.
  • Idéalement les cas les plus évidents renvoient des résultats cohérents.
  • Réellement utiliser un back, parce qu’un site web qui se contente de ne pas faire de requêtes aurait été grillé très vite.

J’ai donc récupéré une liste de mots « connus » en anglais, très (trop) libérale parce que contenant 466 550 éléments (mots ou expressions), une liste de mots connotés positivement et une liste de mots connotés négativement – les trois sont disponibles ici.

Il m’a suffit ensuite de rajouter une condition pour éliminer les entrées contenant trop de mots inconnus2, puis qui décidait quelle liste de résultats possibles est utilisable selon la présence des mots dans les listes de « bons » et « mauvais » mots (et le nombre d’occurences du mot « not »).

Le résultat final était sélectionné en hachant l’entrée utilisateur (avec CRC32…) et à se servir du hash modulo la taille des résultats possibles pour obtenir la réponse affichée à l’utilisateur. Le code est disponible ici.

En ajoutant un front qui se contente d’appeler les API, une belle couche d’enfumage à base de « Nietzsche » et de « Il était fou à la fin de sa vie, ça peut perturber les résultats », et toutes les contraintes sont remplies – en moins de 10 heures !

L’accueil de Ask Nietzsche

Ask Nietzsche a été à la fois mieux et moins bien accueilli que ce que je pensais.

Beaucoup de personnes ont signalé, directement ou indirectement, que les résultats obtenus n’étaient pas très bons, voire franchement mauvais. Merci à Delphi de m’avoir fourni quelques exemples dans lesquels j’étais clairement meilleur – heureusement, leur moteur a été bien amélioré depuis.

Par contre, une seule personne a clairement douté de la présence d’IA derrière ce projet (Christophe B sur linuxfr.org, même si son message a été plussoyé pas mal de fois). Je m’attendais à ce que ce nombre soit clairement plus élevé !

La vraie bonne nouvelle, c’est que personne n’a semblé trouver que Ask Nietzsche ait été un bon projet ou se soit enthousiasmé pour lui – ce que je trouve rassurant : on ne peut pas enfumer les gens à l’infini, si c’est objectivement mauvais, au bout d’un moment ça se voit quand même.

Dans un monde où beaucoup de gens malhonnêtes tentent de vous vendre des mots-clés dans tout et n’importe quoi (de l’IA, de la blockchain, des NFT…) dans n’importe quel contexte, essayez de comprendre le niveau de sérieux qu’il y a derrière ces propositions. Surtout quand, contrairement à moi, ces personnes essaient de vous vendre quelque chose, ou de se mettre en valeur.

Ici les indices étaient évidemment la mauvaise qualité des résultats, le fait que je donne des raisons complètement nulles pour ne pas montrer le code, et d’un point de vue plus technique le fait que Ask Nietzsche réponde presque instantanément – ce qui n’est jamais le cas sur des IA à apprentissage modernes.

La paranoïa n’est pas nécessaire, mais un certain doute raisonnable me semble utile, d’autant plus face à des projets pleins de mot-clés à ma mode.

Je vous dois des excuses

Je tiens ici à présenter mes excuses à toutes les personnes qui ont pris un peu de temps pour m’aider à améliorer le projet. Comme vous le voyez, il n’y avait pas grand-chose à améliorer.

Conclusions

Si je devais résumer cette expérience :

  • C’est facile de faire n’importe quoi et de prétendre que c’est une IA.
  • C’est pas triviale de faire croire que n’importe quoi est une bonne IA.
  • Je suis à peu près sûr que j’aurais pu lever des fonds avec un projet aussi mauvais que ça, vu les réactions.
  • Une mauvais ergonomie peut mener à un très mauvais usage de l’outil (dans le sens où il va être utilisé autrement que la façon dont il est prévu), même quand la problématique semble simplissime lors du développement.
  • La compréhension du langage naturel est une purge sans nom.
  • Méfiez-vous des gens qui prétendent faire un truc (ici de l’IA) sans jamais répondre sur ce qu’ils font, comment ils le font et ce que ça apporte par rapport à une technique plus classique. Surtout si ce truc est à la mode.

  1. En premier lieu : des résultats complètement différents si la casse était changée, comme entre « islam » et « Islam », et le moteur ne bronchait pas si on rentrait absolument n’importe quoi.
  2. Cette méthode a laissé malheureusement trop souvent passer du français, parce que le français et l’anglais ont beaucoup de mots homographes en commun – des mots qui s’écrivent avec la même suite de lettres, quelle que soit la signification du mot.


L’API back et son front Web sont libérés sous licence MIT.

22 commentaires

Par contre, une seule personne a clairement douté de la présence d’IA derrière ce projet (Christophe B sur linuxfr.org, même si son message a été plussoyé pas mal de fois). Je m’attendais à ce que ce nombre soit clairement plus élevé !

Il me semble que chez nous aussi (en particulier sur Discord), nous avons tous senti le truc dès le début ^^

+1 -0

Ha non, je confirme que personne sur le Discord n’a émis d’hypothèse claire sur le fait que ce bot ne contenait pas d’IA – je viens de remonter la conversation pour vérifier. Le seul message qui s’en rapproche, c’est celui de @Grabbo qui concerne en fait un problème de découpage des mots :D

Je n’ai pas parlé du pif au hasard, c’était ton idée, si je me souviens bien. Pour le truc Delphi, tu avais dit que s’il répondait au pif en s’assurant la cohérence des réponses par rapport au passé, ça ferait aussi bien. Par contre, je ne suis pas allé plus loin que ça. J’ai vu ça comme un projet jouet codé en 2 soirs, j’ai joué avec, et je suis passé à autre chose. Le simple fait d’utiliser les listes connotées a suffit pour m’avoir, honnêtement. Donc, j’ai ressorti ta proposition, mais je n’avais absolument pas trouvé le truc. ^^

+2 -0

Je ne vois pas en quoi ce que tu as fait n’est pas une IA, pas une IA moderne certes, mais ça reste une IA.

Tu te bases sur un set de mot connoté, ça ressemble fortement à un entrainement sur des données, encore plus si celui-ci a été fait automatiquement.

Bonne idée en tout cas de faire une sorte d’expérience témoin.

Je ne peux que plussoyer tes conclusions.

+6 -0

La vraie bonne nouvelle, c’est que personne n’a semblé trouver que Ask Nietzsche ait été un bon projet ou se soit enthousiasmé pour lui – ce que je trouve rassurant : on ne peut pas enfumer les gens à l’infini, si c’est objectivement mauvais, au bout d’un moment ça se voit quand même.

J’ai l’impression que c’est un peu le seul truc qui compte, non ? Le focus que tu donnes à la question de savoir si c’est une "vraie" IA ou non (faudrait déjà que tout le monde soit d’accord là-dessus) me parait déplacer un peu la vraie problématique. Que le back-end s’appuie ou non sur une IA, au fond on s’en fout pas mal. Ce qui compte pour éviter les escroqueries et de prendre plus sérieusement qu’il ne le mérite un projet bidon, c’est si les résultats sont perçus comme bons ou mauvais. Visiblement, ça n’a pas fait illusion de ce côté là. Comme on ne peut pas distinguer simplement par l’observation une IA pourrie d’un programme plus simpliste arbitraire, il n’y a pas eu de raison particulière pour les sujets de l’expérience de se pencher sur ce qu’il y a effectivement en back end

Perso, j’ai pas joué avec et seulement lu le sujet en diagonal, mais je pense que ma réaction aurait été en gros celle de Gabbro : jouer 5 minutes avec, voir que c’est pas terrible, et passer à autre chose sans y accorder plus de pensées. J’imagine que c’est la réaction de la plupart des gens, et je ne pense pas que ça permette de tirer une quelconque conclusion sur leur naïveté vis-à-vis des buzzwords comme "IA", que ce soit dans un sens ou dans l’autre.

+3 -0

Ah, en voilà un billet dont je vais me resservir. :)

Déjà, venant de quelqu’un comme toi, j’apprécie énormément le fait que tu montres patte blanche, et tu renforces d’autant plus une croyance que j’ai développée au fil du temps : la majorité des gens parlent d’IA, mais c’est du pipeau.

Maintenant j’aimerais rebondir sur une remarque d’Adri1 :

J’ai l’impression que c’est un peu le seul truc qui compte, non ? Le focus que tu donnes à la question de savoir si c’est une "vraie" IA ou non (faudrait déjà que tout le monde soit d’accord là-dessus) me parait déplacer un peu la vraie problématique. Que le back-end s’appuie ou non sur une IA, au fond on s’en fout pas mal.

Le « problème » (et on ne sait pas vraiment si c’en est un, ça dépend où on se situe), c’est que la plupart des gens ont besoin d’entendre "IA" pour acheter. Ça rejoint la note humoristique de SpaceFox qui dit qu’il aurait pu lever des fonds (pourquoi ne pas essayer au final ?).

On en vient et revient à cet éternel problème de partir d’une solution pour créer un problème et non l’inverse (mais c’est pas faute de me répéter…).

Maintenant, pour savoir si c’est une IA ou non, j’ai déjà eu cette discussion il y a quelques mois avec des personnes avec qui je travaille. C’était difficile de définir ce qui était une IA de ce qui n’en était pas, et on s’est retrouvé à élargir le spectre au point de se poser la question : un algorithme simple n’est-il pas une IA au final ?. D’aucuns pourraient dire qu’un ordinateur, c’est con, et ils ont raison.

Ensuite, il faut définir l’intelligence, mais là encore tout le monde n’est pas d’accord. Est-ce que l’algorithme doit forcément disposer d’un modèle et d’être « apprenant » pour qu’on puisse parler d’IA ?

Pour moi, même en 2021, le débat reste largement ouvert.

Ensuite, il faut définir l’intelligence, mais là encore tout le monde n’est pas d’accord. Est-ce que l’algorithme doit forcément disposer d’un modèle et d’être « apprenant » pour qu’on puisse parler d’IA ?

Si on réponds oui à cette question, on exclue des IA la quasi-totalité des IA/bots des jeux vidéos. Ça me semble hyper restrictif. Mais si on réponds non, ce qu’a fait SpaceFox peut être effectivement considéré comme une IA. Une IA un peu bête, mais une IA.

C’est surement pour ça que c’est un super mot-valise. Soit il est trop restrictif, soit trop inclusif, soit les deux. :D

+0 -0

Ce qui me semble le plus important dans tout ça, c’est ce point précis :

Comme on ne peut pas distinguer simplement par l’observation une IA pourrie d’un programme plus simpliste arbitraire

adri1

Pour moi, c’est un point qui n’était pas spécialement évident, vue la hype qu’il y a eu autour d’IA complètement pétées (ou de projets qui ne sont tout simplement pas de l’IA).

Quant à savoir ce qui est ou non de l’IA, je veux bien être large dans la définition et y inclure tout ce qui a, un jour, été désigné comme tel dans un papier de recherche, au-delà de l’acceptation actuelle. Y compris des choses sans apprentissage, Mais on ne me fera pas dire que « renvoyer un truc au pif après avoir vérifié vite fait qu’il n’y ait pas des mots dans 3 listes de mots » rentre dans une quelconque définition sérieuse de « intelligence artificielle ».


PS : l’étude des questions posées à ce genre de programme serait sans doute très intéressant, en sociologie, pour étudier les personnes qui posent les questions (cf le nuage de mots). Mais c’est trop délicat déontologiquement pour que je ne m’y risque pas, pas plus que les créateurs de Delphi d’ailleurs.

Billet intéressant d’autant que je travaille dans un secteur d’IA et que je fais mes études dans le domaine.

  • Un algorithme est une série d’instruction à effectuer sans ambiguïté
  • L’IA est un ensemble d’algorithmes alimentés en données et structurées afin d’accomplir une tâche sans être programmé pour le faire.

L’IA n’est pas une méthode pour faire quelques choses mais un domaine qui possède plein de sous domaines qui ont tous des techniques bien différentes

Par exemple :

  • Le Machine Learning
  • Le Deep Learning
  • Le NLP

On peut même savoir qu’il existe des algo selon les cas d’utilisation que l’on souhaite avoir :

  • Apprentissage supervisé
  • Apprentissage non supervisé
  • Apprentissage renforcé

Malheureusement, le mot "IA" est utilisé à tord et à travers

+0 -0

Je rappelle juste au passage, dans la coulée du message de rayandfz que "l’IA", ça reste des statistiques au sens mathématiques du terme.

A partir de là, tout modèle prédictif basé sur des statistiques (qu’elles soient fréquentielles ou bayésiennes) peut être appelée IA. Reste à savoir si les erreurs de première et deuxième espèce constitue un enjeu fort pour que le modèle soit qualifié d’IA ou pas. Et si oui, y fixer un seuil.

Bonjour,

J’aime bien la définition de rayandfz :

L’IA est un ensemble d’algorithmes alimentés en données et structurées afin d’accomplir une tâche sans être programmé pour le faire.

Car cela écarte tous les traitements qui simule l’activité humaine : les assistants vocaux Siri Alexa / OK Google ne sont que des simulations de discussions

Et à mon avis une vraie IA se verrait vite confrontée à 2 solutions vis à vis de nous : le suicide ou l’extinction de masse

Billet intéressant d’autant que je travaille dans un secteur d’IA et que je fais mes études dans le domaine.

  • Un algorithme est une série d’instruction à effectuer sans ambiguïté
  • L’IA est un ensemble d’algorithmes alimentés en données et structurées afin d’accomplir une tâche sans être programmé pour le faire.

L’IA n’est pas une méthode pour faire quelques choses mais un domaine qui possède plein de sous domaines qui ont tous des techniques bien différentes

Par exemple :

  • Le Machine Learning
  • Le Deep Learning
  • Le NLP

On peut même savoir qu’il existe des algo selon les cas d’utilisation que l’on souhaite avoir :

  • Apprentissage supervisé
  • Apprentissage non supervisé
  • Apprentissage renforcé

Malheureusement, le mot "IA" est utilisé à tord et à travers

rayandfz

Ben je suis pas spécialement d’accord avec cette définition, pour le coup. Pour info, j’ai aussi fait mes études (et même bossé sur une thèse) dans un domaine de l’IA avant l’avènement du Deep Learning… Ce que tu définis comme étant l’IA ici, c’est la branche que j’ai étudiée sous le nom "d’apprentissage automatique".

C’est justement de cette confusion que naissent les considérations sur "la vraie ou la fausse IA", et qui créent une problématique là où il n’y en a pas à mes yeux. Le domaine du jeu vidéo n’a pas attendu après ces classifications pour appeller "IA" le comportement des ennemis pilotés par l’ordinateur : est-ce à tort ? Non, parce que cette dénomination prédate de très loin les études sur l’IA en tant que domaine des maths appliquées.

Si je précise que j’ai étudié l’IA avant l’avènement du Deep Learning, ce n’est pas pour faire un argument d’autorité, mais simplement pour préciser qu’en Master, on étudiait également des matières qui s’appelaient "intelligence artificielle" et qui n’avaient rien à voir avec l’apprentissage automatique. On peut citer par exemple les méthodes d’optimisation comme le recuit simulé, les algorithmes génétiques, ou les colonies de fourmis. Et on y intégrait également des algorithmes issus de la théorie des jeux, comme le minimax et l’élagage Alpha-Bêta. Cette définition large de l’IA englobe aussi le pathfinding. On y trouve aussi la vision par ordinateur, dont le but est de rendre une machine capable de comprendre ce qu’elle "voit", de suivre des objets dans un flux vidéo, etc. et qui ne se limite pas au Deep Learning écrasant de Google Image Search.

Là où je voudrais en venir, c’est qu’il ne me semble pas bon de trop restreindre la définition de l’IA, parce que ça donne alors les absurdités que l’on voit passer depuis 10 ans avec toutes ces boîtes d’info qui délèguent une tâche à la con à un algo d’apprentissage juste pour sortir l’argument marketing "notre soft a de l’IA dedans" et grapiller quelques brouzoufs en collant ça dans un CIR.

Non, l’IA correspond bel et bien à la zone grise qui existe entre les problèmes que l’on sait résoudre avec un algorithme, et ceux pour lesquels les algorithmes sont moins convaincants ou efficaces que le comportement humain, et dans cette zone, on trouve une richesse foisonnante de trucs à étudier, qui ne reposent pas tous sur un apprentissage, et dont beaucoup consistent à simuler ou reproduire des phénomènes observés dans la nature (pas seulement l’intelligence humaine).

Il serait vraiment dommage de perdre ça de vue sous prétexte que ce n’est "pas de la vraie IA", parce que ce serait se couper d’un pan de l’informatique dans lequel on trouve certains algorithmes parmi ceux qui m’ont le plus émerveillé à titre personnel.

+10 -0

J’aime beaucoup voir se confronter tous les points de vue d’ici (tous valables mais tous différents), c’est assez enrichissant.

Du coup, dans ta définition @nohar , tu n’appelles IA que des mécanismes informatiques qui permettent de résoudre des problèmes que nous ne savons pas résoudre ?

Je pense notamment à la résolution des tours de Hanoï, l’exemple récursif classique. Le classerais-tu parmi l’IA ou non ?

Je pense notamment à la résolution des tours de Hanoï, l’exemple récursif classique. Le classerais-tu parmi l’IA ou non ?

Lyph

Pour le coup, cet exemple fait partie de ceux pour lesquels on a un algorithme, et même un algorithme optimal pour le résoudre. C’est jusque que la complexité de cet algorithme (et donc du problème sous-jacent) est catastrophique, mais on ne pourrait pas faire mieux avec une IA, et quelqu’un de plus matheux que moi pourrait même le prouver formellement.

Mais sinon, oui, en dehors de ça ma définition de l’IA, ce serait plutôt le domaine qui s’attache à trouver des solutions pratiques à des problèmes que l’on ne sait pas résoudre avec un algorithme satisfaisant alors qu’un humain sait le faire facilement, ou du moins que l’on peut observer des occurrences où ce problème est résolu dans la nature.

+0 -0

L’IA est un ensemble d’algorithmes alimentés en données et structurées afin d’accomplir une tâche sans être programmé pour le faire.

Je trouve que cette définition est un peu bizarre, ou plutôt ambiguë. Ça veut dire quoi être programmé [explicitement] pour résoudre un problème ? Ça va dépendre fortement de la définition du problème que l’on considère, et on pourrait arguer (avec un tantinet de mauvaise foi) que cette définition d’IA s’applique à n’importe quel programme capable de prendre une entrée utilisateur. Si mon problème est "je veux le contenu de ~/.vimrc", je peux utiliser cat pour le résoudre même si il n’est pas explicitement codé pour ça. Il résout un problème plus large, qui est de lire un ensemble arbitraire de fichiers. C’est un exemple extrême, mais l’argument s’applique à des programmes arbitrairement complexe. Par exemple, un logiciel qui utilise un réseau de neurones pour différencier des photos de chats de photos de chiens (donc pas explicitement pour résoudre ce problème particulier) peut être vu comme un logiciel codé explicitement pour résoudre une famille de problème beaucoup plus large qui est l’ensemble des problèmes solubles par l’utilisation d’un réseau de neurones. De la même façon que certaines méthodes d’optimisation considérées classiques aujourd’hui étaient vues comme de l’IA il n’y a pas longtemps (e.g. le recuit simulé mentionné plus haut), on peut sûrement s’attendre à ce que certaines méthodes d’apprentissage appelées IA aujourd’hui ne seront vues que comme une simple méthode de résolution d’une certaine classe de problèmes. Ça rejoint cette définition de nohar que je trouve plutôt convaincante :

l’IA correspond bel et bien à la zone grise qui existe entre les problèmes que l’on sait résoudre avec un algorithme, et ceux pour lesquels les algorithmes sont moins convaincants ou efficaces que le comportement humain [ou stratégies naturelles]

Pour enfoncer une porte ouverte, avec cette définition, ce qu’on appelle IA est amené a évoluer au fur-et-à-mesure que l’on comprend mieux les problèmes jugés difficiles, quelles solutions sont disponibles dans le paysage d’algorithmes, et quelles familles de problèmes sont bien résolues par quels algorithmes.

+3 -0

Si cela continue comme ça … il va falloir trouver des religieux pour nous aider dans la définition de l’IA :)

chrislyon

Ou, tout simplement, établir un consensus sur la définition, comme il est souvent fait pour ce genre de sujets scientifiques (l’exemple qui me vient en tête c’est la définition de "planètes"). Il y a une différence entre établir un dogme religieux et construire un consensus scientifique :>

le problème étant que l’IA est polluée par beaucoup d’intérêts commerciaux :’D

(d’ailleurs, je suis presque surpris qu’un tel consensus n’existe pas)

Ou, tout simplement, établir un consensus sur la définition, comme il est souvent fait pour ce genre de sujets scientifiques (l’exemple qui me vient en tête c’est la définition de "planètes"). Il y a une différence entre établir un dogme religieux et construire un consensus scientifique :>

(d’ailleurs, je suis presque surpris qu’un tel consensus n’existe pas)

Mouais, la plupart des thématiques de recherche scientifique (toutes?) ont des définitions qui varient un peu (voire beaucoup) selon à qui tu demandes et plus tu t’approches du monde académique, plus tu as de la variabilité parce que les gens voient la thématique à travers leur spectre de recherche (ce qui est parfaitement normal). Tu pourras difficilement trouver un consensus sur la définition de l’IA qui ne sera pas relativement nébuleux. Si on prend la page de wikipedia par exemple, on trouve

Leading AI textbooks define the field as the study of "intelligent agents": any system that perceives its environment and takes actions that maximize its chance of achieving its goals.

avec une note référant quelques grands noms du domaine. C’est hyper vague, mais on trouve surtout la notion d’entrées, et à partir de celles-ci, l’obtention d’une réponse à un problème d’optimisation (au sens général du terme). On voit qu’on peut caser beaucoup de choses là-dedans.

C’est rigolo que tu parles de planètes d’ailleurs, parce que le sujet fait encore débat chez certains planétologues, et la définition actuelle est récente (2006) au vu de l’âge du concept ! Elle sera sûrement amenée à évoluer aussi avec l’explosion du nombre d’exoplanètes découvertes. En plus, elle a été décidée à Prague, par un panel essentiellement composé d’européens, donc il y a sûrement une part de troll dans le fait de créer la catégorie de "planète naine" essentiellement pour y mettre Pluton (qui était à l’époque la seule des 9 planètes qui a été découverte par un américain).

Alors bon, tout ça pour dire que les scientifiques sont pas forcément les meilleurs pour trouver des définitions consensuelles. C’est plutôt logique d’ailleurs, étant donné que notre boulot est d’étudier des choses qu’on ne comprend pas encore.

+0 -0

C’est rigolo que tu parles de planètes d’ailleurs, parce que le sujet fait encore débat chez certains planétologues, et la définition actuelle est récente (2006) au vu de l’âge du concept ! Elle sera sûrement amenée à évoluer aussi avec l’explosion du nombre d’exoplanètes découvertes. En plus, elle a été décidée à Prague, par un panel essentiellement composé d’européens, donc il y a sûrement une part de troll dans le fait de créer la catégorie de "planète naine" essentiellement pour y mettre Pluton (qui était à l’époque la seule des 9 planètes qui a été découverte par un américain).

adri1

HS pour préciser ça : en fait, la définition de « planète » était déjà floue, et la communauté scientifique le savait : en 2000 l’UAI débattait déjà de « über-planets » et « unter-planets » (grosso modo les planètes et planètes naines actuelles) ; la découverte de Sedna, Éris, Hauméa, Makémaké, Quaoar, Orcus et Salacie au début des années 2000 (toutes avant 2006) a convaincu l’UAI de prendre une décision avant que ça devienne trop n’importe quoi. Après on peut ergoter sur la définition choisie, mais le fait est que quelle que soit la définition choisie, soit on fait une exception pour Pluton, soit le système solaire doit contenir beaucoup de planètes, soit Pluton n’a plus ce statut. D’autre part, le principal réfractaire au déclassement de Pluton était (et est toujours) Alan Stern, qui a un léger conflit d’intérêt : c’est le directeur de la mission New Horizons à destination de Pluton (les scientifiques ne sont pas protégés contre ça non plus).

(Le saviez-vous ? Cérès a été « officiellement » une planète plus longtemps que Pluton).

J’aime bien ce débat, mais je n’ai pas grand-chose à y apporter. Simplement que ça me rappelle une phrase prononcée par un de mes profs quand j’étais à la fac : « Une définition, c’est un choix politique ».

Et ce, au sens où poser un mot sur un morceau de réalité, c’est aussi circonscrire le périmètre de la pensée. Une définition mal choisie pourrait écarter d’emblée toute une classe de problèmes ou d’algorithmes, considérés de facto comme « non intelligents », qui pourtant auraient intérêt à être étudiés. Inversement, une définition trop large fait rentrer dans la rubrique des algorithmes « intelligents » toutes sortes de solutions triviales à des problèmes dépourvus d’intérêt.

Décider qu’un algorithme contient/est de l’IA, c’est automatiquement le classer dans la rubrique de algos sophistiqués et dignes d’intérêt. Ce n’est donc pas un simple qualificatif scientifique : il y a aussi une forte dimension symbolique, parce qu’il a été magiquement décidé que l’IA c’est cool. Mais au final, on pourrait avoir les mêmes algos sans avoir parlé d’intelligence artificielle mais avec un autre mot (« statistiques inférentielles » par exemple), beaucoup moins sexy. Je décris la même réalité avec un mot différent… Donc au final, je change la réalité (ça se voit beaucoup ces dernières années où les révolutions féministes bataillent pour changer la langue et donc changer la réalité).

Typiquement, la résolution algorithmique du « trouver le nombre mystère » est une facilité déconcertante, même dans sa version optimale — qui revêt pourtant une véritable intelligence, pour le coup.

Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte