D’abord, je dois signaler que je ne suis pas expert du domaine, je sais juste ce qu’est un produit de convolution.
Les réseaux de neurones sont très bons pour trouver des corrélations. Le problème ça va être les corrélations fallacieuses (spurious). Dans le cas d’une IA générative, si elle détecte que les images de magiciens sont corrélées avec des G et des K dans les textes, elle va avoir tendance à générer des G et des K quand on lui demande des magiciens (l’exemple n’a aucun sens, à dessein). Peut être pas très souvent, si la corrélation était faible, mais un peu plus souvent que la moyenne. Si tu utilises la sortie comme donnée d’entraînement, la corrélation fallacieuse de ton jeu de données d’origine va devenir une vraie corrélation de ton nouveau jeu de données. Tu vas amplifier les artefacts du premier jeu de données et du premier entraînement.
Dans le cas d’Alphago, il y a un système de vérification externe, les règles du jeu de go, qui disent formellement si tu as gagné ou pas. Si tu dessines un magicien avec un G36K (un fusil d’assaut moderne), et que tu as un système qui permet de dire "les fusils d’assaut ne sont pas autorisés aux magiciens", tu as une opportunité de gommer la corrélation qui existait dans ton jeu de données initial.
Si tu as un moyen de dire ce qui est correct ou non dans les données de sortie de ton premier CNN, tu peux avoir des données utiles à l’entraînement. Dans ton cas, ça semble nécessiter de vérifier manuellement toutes les segmentations. Ça semble pénible, mais peut être que ça l’est moins que de les faire. Dans le cas des IA génératives, c’est pire: les contenus générés peuvent avoir des défauts qui ne seront pas vus par un humain (par exemple un usage un peu trop fréquent des allitérations), mais fausseront des entraînements faits sur ces données générées.
En bref, si tu n’as pas moyen de détecter exhaustivement toutes les erreurs de ton premier CNN, il ne pourra qu’empoisonner les entraînements suivants avec ses propres biais.