Bonjour !
Je suis désolé mais ce topic va paraître bizarre. J’ai vu il y a quelque temps un documentaire d’Arte qui s’intéresse à la modération des contenus sur le Web et sur Internet. Ce que j’en ai retenu c’est que les grandes entreprises du Web (je pense qu’on peut parler des GAFAM) reçoivent en permanence de grandes quantités d’images et de textes au travers de leurs réseaux sociaux ou autres services, et on besoin de détecter et d’éliminer le contenu indésirable (propos haineux, incitation au terrorisme, pornographie, images choquantes, etc.). Pour ce faire, ils font appel à des sous-traitants généralement situés dans des pays en développement (Asie, Afrique) qui emploient des personnes qui vont se confronter aux contenus et décider, selon les consignes, si l’élément doit être bloqué ou non. Même si des algorithmes permettent d’automatiser le processus partiellement, le travail est en grande partie réalisé par des êtres humains.
Une question que je me pose souvent en tant que développeur amateur (web ou autre) est la suivante : comment modérer le contenu sur des sites de taille petite ou moyenne ? Existe-t-il des services (via API par exemple) qui permettent de faire vérifier les images et les textes suspects ? Et qu’en est-il pour Zeste de Savoir : un système de modération pour ce genre de contenu est-il en place ? Le site a-t-il déjà été confronté à des images choquantes ? Que va-t-il se passer, si un utilisateur poste (par exemple !) l’image d’un homme décapité ?
Enfin, autant au niveau des grands sites Web que des petits, l’intégralité du contenu est-il modéré, ou le processus ne concerne que les contenus qui ont été signalés ?
Cordialement, Croal