En réalité, quand on regarde ses arguments sur le fond, c’est souvent plein de raccourcis et de jolies histoires.
Exemples ?
Il décrit juste le récit qu’il à envie de raconter, qui va lui permettre de justifier l’importance de son domaine. Tous ses arguments sont de vagues analogies destinées à tromper le lecteur.
[…]
Même si je pense que Le croit en ce qu’il dit (ce qui est assez triste du coup^^).
Je ne suis pas sûr de comprendre. D’un côté il me semble que tu dis que Lê est honnête (il croit en ce qu’il dit) et de l’autre tu insinues qu’il cherche à tromper le lecteur pour servir son point de vue. Au-delà de la contradiction, je suis curieux de savoir sur quoi tu t’appuies pour être aussi catégorique quant aux intentions de Lê.
Si tu veux plus d’arguments sur le fond, j’ai discuté sur Twitter en détail de la vision de Le sur l’IA avec lui et un autre doctorant en IA. Je peux te passer le lien des discussions en mp.
Je ne vois pas de tweets de Lê réagissant aux tiens. En ai-je manqués ?
Pour MonsieurPhi, je lui reproche son bayesianisme naïf (contaminé par Le) et son utilitarisme.
En quoi cela implique-t-il qu’il fasse de mauvaises vidéos au sujet de la morale (puisque c’est ce que tu défends, n’est-ce pas ?) ?
Là aussi j’ai un peu argumenté là dessus avec lui sur Twitter, en particulier sur pourquoi la philosophie de Peter Stinger est une imposture à mes yeux (et elle est très liée au problème du Trolley et autres dilemmes moraux de ce genre).
Je n’ai pas vu ton échange avec lui sur Twitter.
Ce qui fait peur aux gens n’est pas qu’une IA tue des gens, mais de ne pas comprendre les choix de l’IA.
Euh, ça sort d’où ça ?
Si demain un grand père s’endort au volant et tue 5 personnes dans la voiture d’en face, tout le monde trouvera cela triste et tragique, mais tout le monde "comprendra" la situation. Comprendre aide à surmonter, ça donne un sens.
Si demain l’IA décide de tuer le grand-père pour épargner les 5 personnes, alors que le grand père ne veut pas mourir, je pense que les gens seront bien moins ok avec cette solution. Qui aurait envie de mourir sacrifier par une IA qui à décidé que la vie de l’autre compte plus ? Selon quels critères ?
C’est un point qui me semble valide effectivement. Nous sommes probablement plus enclins à pardonner (et donc accepter) à un humain qu’à une IA.
La solution n’est pas de dégager des critères complexes, mais au contraire d’adopter une ligne de conduite simple et prévisible, et moralement acceptable. Que la voiture essaye simplement de sauver son occupant et de s’arrêter. Ainsi, chacun pourra adapter son comportement, car un tel comportement est largement plus prévisible.
On cherche à définir ces critères complexes pour gérer des cas exceptionnels (dans le scénario de l’application du MIT, une défaillance de freins). Le but n’est à ma connaissance pas de dire "traversez sans regarder et remettez-en vous à la sagesse de l’IA pour rester en vie". Je ne comprends donc pas ton argument.
Par contre, déployer autant d’attention pour ces cas exceptionnels est peut-être contre-produtif, comme le signalent @Aabu et @Renault.
Personne ne se met devant un train en pensant qu’il va s’arrêter. Si vous savez que le train ne s’arrêtera pas, vous ne vous mettez pas devant. La situation devient paradoxalement dangereuse quand on pense que le train va s’arrêter pour nous, sans en être sur.
Comme je l’ai dit, il n’est, de ce que j’en sais, pas du tout question de ça.
C’est à nous de nous adapter aux voitures
Pourquoi ? Un des intérêts de l’IA par rapport aux algorithmes classiques n’est-il pas justement leur capacité (limitée de nos jours) à s’adapter à l’utilisateur ?
La vraie complexité appelle des réponses simples, pas plus de complexité. Le scientiste appelle à la complexité car il ne connait que le monde linéaire et pense contrôler les choses. Le scientifique appelle à la simplicité car il sait que c’est la meilleure façon de gérer les systèmes complexes.
En tout cas ce paragraphe n’appelle pas au débat, vu qu’il se contente d’affirmer des choses sans les justifier.