Accès MP administrateur ?

a marqué ce sujet comme résolu.

Hello,

Savez-vous s’il vous plaît où je pourrais trouver l’information suivante : "Un administrateur/modérateur d’un service Web a-t-il un droit de regard sur toute conversation établie entre deux utilisateurs de ce service, pouvant contenir des données personnelles comme des adresses ou numéros de téléphones et identités, ainsi que des informations relatives à une éventuelle ébauche de contrat de vente ou professionnel ou de recrutement, ou plutôt d’informations préliminaires à ce sujet ?".

Le truc le plus proche c’est ça https://www.cnil.fr/fr/lacces-la-messagerie-dun-salarie-en-son-absence mais bon rien à voir…

Alors je sais la question est ultra précise mais en gros vous voyez le truc, y a une conversation privée avec des données assez sensibles (mais pas médicales normalement) et je souhaiterais savoir si je peux/dois y avoir accès à tout instant "t" ?

A quoi cela me servirait ?

  • Si un utilisateur dénonce un comportement pas sympa d’un gars par MP ou du spam, je peux vérifier le contenu

  • Je peux faire de la surveillance pour sanctionner pro-activement

  • Si jamais y a des problèmes au niveau de la vente qui a été conclue entre les deux utilisateurs, ou encore un problème au niveau du CDI proposé par un utilisateur à un autre etc. , je serais en mesure de témoigner (je pense que c’est un devoir dans ce cas-là au niveau juridique, que de témoigner ?)

===> évidemment ça touche à la fois l’accès en lecture dans la base de données, mais aussi une fonctionnalité frontend.

PS : ça fait 2 ou 3 topics mêlant juridisme et technique que je fais, j’ai l’impression de me poser beaucoup trop d’interrogations et que les développeurs de sites Internet rémunérateurs ne s’en posent pas autant que moi… Devrais-je arrêter de me prendre la tête avec toutes ces questions et faire comme bon me semble, et si jamais un jour j’ai un pépin juridique bein je corrige ? Il ne m’arrivera rien, si ?

Merci d’avance, bonne soirée !

+0 -0

Je vais t’offrir la même réponse que sur un autre sujet : va voir les CGU de tes concurrents (ou de sites qui offre un fonctionnement / résolvent des problématiques similaire sur d’autres sujets), ça te permettra de te familiariser avec le langage juridique et de voir comment les autres qui ont de l’expérience ont abordé le sujet

+5 -0

PS : ça fait 2 ou 3 topics mêlant juridisme et technique que je fais, j’ai l’impression de me poser beaucoup trop d’interrogations et que les développeurs de sites Internet rémunérateurs ne s’en posent pas autant que moi… Devrais-je arrêter de me prendre la tête avec toutes ces questions et faire comme bon me semble, et si jamais un jour j’ai un pépin juridique bein je corrige ? Il ne m’arrivera rien, si ?

Il y a peut-être un équilibre à trouver. Les gens dont tu parles sont peut-être dans le travers inverse : au mépris de la réglementation, ils pondent des sites pseudo-commerciaux sans même avoir de mentions légales (qu’on peut rédiger soi-même en se renseignant quelques minutes).

Pour revenir à ton problème, j’ai l’impression qu’on a aussi un volet concernant la confidentialité et la vie privée. Je me souviens de quelques trucs de ma formation RGPD, notamment la notion d'intérêt légitime prévue par le RGPD :

Cette condition, souvent de bon sens, n’est pas la plus problématique. Il n’existe pas de liste exhaustive des intérêts considérés comme légitimes, mais le RGPD et la jurisprudence en fournissent des illustrations. Cette base légale peut par exemple être envisagée pour les traitements de données :

  • visant à garantir la sécurité du réseau et des informations,
  • mis en œuvre à des fins de prévention de la fraude
https://www.cnil.fr/fr/les-bases-legales/interet-legitime

Je sais que certains gros sites (comme le site orange) font référence à cette notion d’intérêt légitime notamment pour justifier le traitement (automatique ou humain) qui pourrait être fait sur des échanges privés de la messagerie, à des fins de lutte contre le spam ou la fraude. Et là, je te renvoie au conseil de @Eskimon : regarde les CGU/CGV, ainsi que la politique de confidentialité des autres pour voir comment ils amènent le truc1

Avertissement : garde bien en tête que je ne suis pas juriste. Si tu as besoin d’avoir un avis pour un site commercial (avec entreprise et tout ça), je te recommande vivement de t’adresser à un professionnel ;)


  1. Attention, toutefois, ça ne veut pas dire recopier les CGV/CGU/PC évidemment !
+0 -0

OK merci beaucoup !

Toutes ces questions juridiques qu’on est obligé de poser sur un forum ou de devoir payer pour avoir des réponses… c’est un peu un frein… au développement de nouveaux produits informatiques… ça nuit à la croissance/productivité FR tout ça…

Ils devraient vraiment créer un site publique d’accès gratuit avec plein de questions de ce genre… c’est quand même ultra basique et ultra répandu comme questions…

+0 -0

Ils devraient vraiment créer un site publique d’accès gratuit avec plein de questions de ce genre… c’est quand même ultra basique et ultra répandu comme questions…

HerbeQuiBenchEtSquat

Ce site existe en France, il s’agit de Service-public.fr (dans sa version pour professionnels). Il y a aussi une version UE : Your Europe. Mais c’est pour des questions basiques d’ordre général, pas pour des cas précis ou particulier qui nécessiteront une aide personnalisée ou semi-personnalisée.

Toutes ces questions juridiques qu’on est obligé de poser sur un forum ou de devoir payer pour avoir des réponses… c’est un peu un frein… au développement de nouveaux produits informatiques… ça nuit à la croissance/productivité FR tout ça…

Je n’ai pas spécialement d’avis sur la question, mais ces dernières années on a vu des nouvelles entreprises, dites de LegalTech, qui proposent des services semi-personnalisés à des prix très compétitifs par rapport à un cabinet classique. Ils proposent de générer des CGV/CGU en fonction des indications données par l’utilisateur, par exemple.

J’ai l’impression que ça marche plutôt bien pour des cas sans trop de particularité, mais pour un cas comme celui que tu exposes, je ne sais pas trop.

+2 -0

Alors je sais la question est ultra précise mais en gros vous voyez le truc, y a une conversation privée avec des données assez sensibles (mais pas médicales normalement) et je souhaiterais savoir si je peux/dois y avoir accès à tout instant "t" ?

Cela dépend des cas. Mais la règle de base est que les conversations privées sont privées. Tu ne pourrais y accéder que s’il y a un signalement de l’utilisateur. C’est à dire que si tu as consulté le MP de bonne foi parce qu’un utilisateur de ton service a signalé un problème.

https://www.legifrance.gouv.fr/codes/section_lc/LEGITEXT000006070719/LEGISCTA000006181757/2009–06–20/#LEGISCTA000006181757

Je peux faire de la surveillance pour sanctionner pro-activement

Non. C’est limite tant au sens de la bonne foi que de l’intérêt légitime

Si jamais y a des problèmes au niveau de la vente qui a été conclue entre les deux utilisateurs, ou encore un problème au niveau du CDI proposé par un utilisateur à un autre etc. , je serais en mesure de témoigner (je pense que c’est un devoir dans ce cas-là au niveau juridique, que de témoigner ?)

Le témoignage n’est pas un devoir et ne vaut pas grand chose.

OK merci beaucoup !

Toutes ces questions juridiques qu’on est obligé de poser sur un forum ou de devoir payer pour avoir des réponses… c’est un peu un frein… au développement de nouveaux produits informatiques… ça nuit à la croissance/productivité FR tout ça…

Ils devraient vraiment créer un site publique d’accès gratuit avec plein de questions de ce genre… c’est quand même ultra basique et ultra répandu comme questions…

HerbeQuiBenchEtSquat

Pourtant, les ressources en ligne existent. Exemples :

En parlant de legaltech, tu as en France Legalstart qui offre une assistance relativement peu coûteuse pour tout ce qui est lié au monde de l’entrepreneuriat (CGU, CGV,…) et qui publie des guides à caractère juridique.

L’information juridique n’a jamais été aussi accessible (notamment via de très nombreuses sources gratuites). Mais cela implique de savoir faire et prendre le temps de faire des recherches approfondies ^^

+6 -0

Je dirais :

D’abord, il y a une différence entre administrateur et modérateur. ou plus précisément entre :

  • Le(s) personne(s) qui a(ont) les clés du serveur
  • Les autres

Les premiers ont la qualité d'hébergeur. Avant les règlement européens anti terro, tu n’avais pour seule qualité juridique que de devoir modérer après qu’on leur a signalé. Aucune proactivité n’était exigée. YouTube & co se sont mis à être proactifs pour éviter les signalements à répétitions.

Ensuite, il y a les dispositifs anti terro, et il faut vérifier, mais il me semble que le régime est similaire pour les petites structures : tu as deux heures (à vérifier) pour modérer tout contenu que la police & co peut t’indiquer comme relevant de cette loi. (ne revenons pas sur le débat selon lequel une loi est nulle si elle n’est pas applicable, m’enfin bref) [Les très (trop) grosses structures ont un devoir de proactivité à l’égard des règlements anti terro, mais je doute que tu entres dans cette case]

Bref, la notion spéciale d’hébergeur n’exige pas de proactivité.

On te sommera toujours de censurer un contenu, pas de deviner qu’il est à censurer.

— En revanche, si tu adoptes la position d’éditeur, tu relèves de la liberté d’expression (toujours cette bonne vieille loi de 1881) et de la liberté de la presse. Tu es légalement responsable de tout ce que tu affirmes.

— Pour la conversation privée, comme l’a dit quelqu’un, elle est privée. Aucun droit d’accès. Même dans le cadre professionnel. Typiquement, il y a jurisprudence (faudrait que je la retrouve, autre chose à faire déso) pour dire que tu as le droti d’utiliser, tant que c’est proportionnée, ta boite mail professionnelle pour des e-mails privés. Toute conversation professionnelle peut être consultée par ton employeur (officiellement, par le sysadmin/DSI de ta boîte, m’enfin bon, voilà). Néanmoins, il lui est illégal de consulter un e-mail expressément indiquer comme privé (tu indiques un [Privé] dans l’objet).

Voilà ce que j’en sais, ou au moins, je crois savoir.

+0 -0

Les premiers ont la qualité d’hébergeur. Avant les règlement européens anti terro, tu n’avais pour seule qualité juridique que de devoir modérer après qu’on leur a signalé. Aucune proactivité n’était exigée. YouTube & co se sont mis à être proactifs pour éviter les signalements à répétitions.

Cela n’a rien à voir avec les règlements anti terro. Tout contenu illicite doit être traité et supprimé s’il apparaît qu’il est illicite (violation des droits d’auteur, terrorisme,..).

Il n’y a pas d’exigence de proactivité, sauf exceptions (terrorisme, pédopornographie, contrefaçons,.. bref des contenus qui sont clairement illicites) où, effectivement, les entreprises ont l’obligation de mettre en place des moyens de détection.

Par contre, c’est adapté. On n’exige pas du petit site du coin le même niveau que pour Youtube. Les entreprises doivent mettre en place des garanties efficaces et adaptées, avec une vérification humaine (pour des raisons de respect des droits fondamentaux, protection des données, notamment).

Ensuite, il y a les dispositifs anti terro, et il faut vérifier, mais il me semble que le régime est similaire pour les petites structures : tu as deux heures (à vérifier) pour modérer tout contenu que la police & co peut t’indiquer comme relevant de cette loi. (ne revenons pas sur le débat selon lequel une loi est nulle si elle n’est pas applicable, m’enfin bref) [Les très (trop) grosses structures ont un devoir de proactivité à l’égard des règlements anti terro, mais je doute que tu entres dans cette case]

Non. S’il existe des preuves d’une infraction pénale grave ou le soupçon qu’un contenu illicite représente une menace pour autrui ou des intérêts primordiaux, l’obligation d’information des autorités est sans délai. Il faut signaler immédiatement aux autorités le contenu en question. Les directives et règlements européens laissent toutefois à chaque Etat le soin d’établir les obligations légales et sanctions éventuelles.

— En revanche, si tu adoptes la position d’éditeur, tu relèves de la liberté d’expression (toujours cette bonne vieille loi de 1881) et de la liberté de la presse. Tu es légalement responsable de tout ce que tu affirmes.

Nope. Le caractère d’hébergeur/éditeur n’entre pas en ligne de compte ici. Tout éditeur d’un site est, sauf exception (c’est notamment à cela que servent les CGU, même si selon les cas et le comportement de l’éditeur du site, sa responsabilité pourra quand même être retenue), responsable de son contenu.

+0 -0

Cela n’a rien à voir avec les règlements anti terro. Tout contenu illicite doit être traité et supprimé s’il apparaît qu’il est illicite (violation des droits d’auteur, terrorisme,..).

Une fois signalée, oui. Mais tant qu’aucune autorité ne le signale à l’hébergeur, l’hébergeur n’est pas tenue de le supprimer, sauf cas flagrant (et ce sont ces exceptions proactives qui ont été introduites récemment via les règlements français et européens anti-terro). Les exigences sont les mêmes dans lesdits cas flagrants peu importe la taille de la structure.

Par contre, c’est adapté. On n’exige pas du petit site du coin le même niveau que pour Youtube. Les entreprises doivent mettre en place des garanties efficaces et adaptées, avec une vérification humaine (pour des raisons de respect des droits fondamentaux, protection des données, notamment).

Cette proportionnalité est uniquement dans le cadre des contenus soumis au droit d’auteur.

— En revanche, si tu adoptes la position d’éditeur, tu relèves de la liberté d’expression (toujours cette bonne vieille loi de 1881) et de la liberté de la presse. Tu es légalement responsable de tout ce que tu affirmes.

Nope. Le caractère d’hébergeur/éditeur n’entre pas en ligne de compte ici. Tout éditeur d’un site est, sauf exception (c’est notamment à cela que servent les CGU, même si selon les cas et le comportement de l’éditeur du site, sa responsabilité pourra quand même être retenue), responsable de son contenu.

Oui, absolument, mais dans le cas ici, il n’est pas clair qu’il adopte le statut d’hébergeur ou d’éditeur :)

+0 -0

Salut,

Je passe en coup de vent pour remercier Arius et sgble pour les URL de sites juris qu’il a données ici, ce que je voulais faire dans la semaine mais faute de temps ça sera maintenant :-° je compléterai cette réponse d’un autre post car je vois que de nouvelles infos, notamment de Lyph, ont été ajoutées !

+0 -0

Une fois signalée, oui. Mais tant qu’aucune autorité ne le signale à l’hébergeur, l’hébergeur n’est pas tenue de le supprimer, sauf cas flagrant (et ce sont ces exceptions proactives qui ont été introduites récemment via les règlements français et européens anti-terro). Les exigences sont les mêmes dans lesdits cas flagrants peu importe la taille de la structure.

Le signalement ne doit pas (forcément) émaner de l’autorité. Le principe de responsabilité limitée des fournisseurs de services intermédiaires, en particulier des hébergeurs, repris de l’article 14 de la directive européenne sur le commerce électronique : ces derniers ne peuvent être tenus responsables des informations présentes sur leurs services, sauf si, ayant eu connaissance de leur caractère illicite, ils n’ont pas agi promptement pour les retirer ou les rendre inaccessibles.

En cas de flagrance (si le contenu est objectivement illicite et aucun doute n’est possible), il y a une obligation d’action.

Par exemple, un site de streaming illégal ne peut se prévaloir de n’agir qu’au signalement du contenu… puisqu’il est évident que ce contenu n’a pas été obtenu légalement et que le site fait ce que l’on appelle du recel de contrefaçon informatique. C’est un cas de flagrant délit et c’est ce qui rend les phrases du type "Les contenus ne sont pas hébergés sur notre site, nous ne sommes pas responsables" d’autant plus drôle.

Ce n’est toutefois pas une règlementation anti-terro (et comme expliqué plus haut, il y a une exception pour les contenus de ce type (comme pour la pédopornographie, etc.)). C’est une législation qui se base sur plusieurs textes qui doivent souvent être analysés en même temps :

  • la directive 2000/31/CE sur le commerce électronique,
  • la directive 2001/29 sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information
  • la directive 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29
  • la directive 2004/48 relative au respect des droits de propriété intellectuelle
  • la directive relative à la lutte contre les abus sexuels commis sur des enfants
  • la décision-cadre sur la lutte contre certaines formes et manifestations de racisme et de xénophobie au moyen du droit pénal
  • les escroqueries et fraudes commerciales (directive sur les pratiques commerciales déloyales ou directive relative aux droits des consommateurs)
  • la directive de l’UE relative à la lutte contre le terrorisme
  • etc.

La notion de "contenu illicite" varie donc selon ces différentes législations, de même que les obligations des services en ligne. Il y a donc un régime général de responsabilité limitée et des exceptions, mais aussi une gradation, en ce qui concerne les moyens mis en place. En effet, il faut veiller à ce que les décisions relatives à la suppression de contenu soient précises et fondées, particulièrement si l’on utilise des algorithmes de détection et de suppression. Les entreprises doivent donc mettre en place des mesures adaptées, y compris des méthodes de vérification humaines pour respecter le cadre fixé, plus largement, par les droits fondamentaux, la liberté d’expression et des règles en matière de protection des données.

Et actuellement est en préparation les futures législations sur les services numériques et sur les marchés numériques.

Cette proportionnalité est uniquement dans le cadre des contenus soumis au droit d’auteur.

Oui et non. Elle ne s’applique pas pour du contenu objectivement illégal, mais la proportionnalité et la transparence est de mise pour tout autre contenu. Ce n’est pas spécifique au contenu soumis au droit d’auteur, même si c’est l’application la plus fréquente.

Pour la future législation sur les services numériques, actuellement en préparation par l’UE, les obligations sont graduées en fonction de la nature et de la taille des fournisseurs de services en ligne concernés.

A noter que les législations nationales peuvent aller plus loin que ce que les règlements et directives européennes prévoient.

+0 -0

Salut,

Pour résumer vos dernières interventions :

  • Pas de proactivité de l’hébergeur (admin). Enfin si, pour tout ce qui est terrorisme etc., il faut mettre en place des moyens adaptés à la taille de l’entreprise du site. Dont verif humaine. Cette adaptation à la taille de l’entreprise ne concerne toutefois que les problèmes de droits d’auteur. Ce qui implique que les problèmes de contenus illicites nécessitent les mêmes moyens de détection et de censure qu’elle que soit la taille de l’entreprise.

  • S’il y a détection, il faut informer sans délais les autorités et on a 2h pour censurer. Je suppose qu’on envoie une copie aux autorités comme preuve puisque la censure sera effective au plus tôt.

  • idem pour un éditeur sauf si mentions particulières dans les CGU, et encore.

Bon voilà ce qu’il résulte de l’union des ensembles de règles auxquelles vous êtes tous deux parvenus.

Je ne prends pas encore en compte le dernier post d’Arius qui semble corriger quelques trucs car c’est assez technique et détaillé, je ferai ça ultérieurement.


Bon clairement j’ai encore une question : dans mon cas tous les échanges se font par messagerie (MP), donc tout ce que vous avez dit, ça ne concerne pas ça si ? Vu que le privé c’est privé comme vous l’avez dit.

Je n’ai clairement pas les moyens de mettre en place des mécanismes de surveillance de contenus illicites et de censurés automatisés et nécessitant mon intervention, donc pour le coup j’ai beaucoup de chance.

Ah bah non en fait, tout bien réfléchi, certains utilisateurs vont pouvoir écrire des descriptions de profil en gros… Donc ce sera soumis à tout ce que vous avez dit….

Mais un truc me chiffonne. Dans mes deux agences Web, qui ont énormément de clients, on n’a jamais, je dis bien JAMAIS, mis en place de tels systèmes de détection et censurés de contenus illicites. Et aucun client, même très technique, ne semble se soucier de tout ça (alors qu’il y a vraiment des grosses boîtes hein).

Donc bon… Est-ce que tout cela ne serait pas un peu… Du blabla?

Comprenez-moi bien, je ne dis pas ça par mépris, mais c’est tout simplement bien loin des réalités que je constate depuis 4 ans de profession en tant que dev Web mobile et j’en passe…


Bon j’avais une autre question car j’avais lu une contradiction dans une réponse ici, je checkerai ça le week-end prochain.

Je suis en train de mettre toutes vos réponses de manière condensée et hiérarchisée dans un Google sheet.

Cette adaptation à la taille de l’entreprise ne concerne toutefois que les problèmes de droits d’auteur

Pas que, notamment.

S’il y a détection, il faut informer sans délais les autorités et on a 2h pour censurer.

Il n’y a pas de condition de durée au sens de la législation européenne et, en France, le régime de la loi n° 2014–1353 du 13 novembre 2014 d’une obligation spécifique de retrait1, sous 24 heures pour les contenus haineux et une heure, pour les contenus provoquant directement au terrorisme ou en faisant l’apologie et ceux à caractère pédopornographique qui leur sont notifiés par l’OCLCTIC a été censuré par la Cour constitutionnelle2.

. Il faut informer sans délai et rendre le contenu inaccessible publiquement (les autorités auront peut-être le besoin d’accéder aux données liées à ce contenu).

Bon clairement j’ai encore une question : dans mon cas tous les échanges se font par messagerie (MP), donc tout ce que vous avez dit, ça ne concerne pas ça si ? Vu que le privé c’est privé comme vous l’avez dit.

Le contenu non visible (MP, par exemple) sera en effet à mettre en balance avec les règles sur la vie privée. Maintenant, tu peux par exemple mettre en place un système de signalement.

Ah bah non en fait, tout bien réfléchi, certains utilisateurs vont pouvoir écrire des descriptions de profil en gros… Donc ce sera soumis à tout ce que vous avez dit….

Oui.

Donc bon… Est-ce que tout cela ne serait pas un peu… Du blabla?

Nope :

Ce sont des questions d’actualité qui vont encore générer du contentieux dans les années à venir.


  1. Cette obligation avait lieu sur notification de l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC).
  2. Voir Décision n° 2020–801 DC du 18 juin 2020 et le Conseil constitutionnel assassine la loi Avia (contenus haineux sur Internet)
+0 -0

Arius, qu’y a-t-il comme système de détection ?

Comme système de censure c’est facile.

Mais pour la détection, qui doit être automatisée si j’ai bien compris certains posts, il faudrait mettre en place du machine learning non ?

Ou alors le système de signalement suffit ? Mais du coup ce n’est pas proactif.

+0 -0

Typiquement oui, ça va nécessiter des algos de machine learning. Mais bon, il faut être conscient que tout le monde n’a pas forcément les moyens de le faire. Tu peux aussi avoir de la détection de liens, par exemple.

Pour la grande majorité des cas, un système de signalement devrait être suffisant.

Ou alors le système de signalement suffit ? Mais du coup ce n’est pas proactif.

Pour les contenus privés, il faut faire une balance des intérêts. Ce ne sont pas des contenus accessibles au public et de nature potentiellement privée, donc tu ne peux pas vraiment être proactif.

+0 -0

Bonsoir,

@Arius et @Lyphe : je trouve vos échanges passionnants, riches et complexes, avec quelques petites zones d’ombre subsistantes. La complexité du sujet, de vos échanges, le fait que vous vous soyiez corrigés mutuellement d’un échange à un autre, et ces quelques zones d’ombre dont je définis au moins une cause plus loin, font que le lecteur du topic ne pourra pas se faire une idée bien définie de la réponse finale apportée au topic. Je me permets donc d’intervenir de sorte à proposer cette réponse finale après un long et fastidieux travail d’analyse de vos échanges que je détaille ci-dessous, et je vous demande un dernier effort si possible s’il vous plaît : celui de corriger ma proposition de réponse finale si besoin est.

J’ai donc passé en revue, de manière très détaillée, chacune de vos interventions et ai ainsi pu condenser toutes les notions que vous avez expliquées dans deux listes distinctes (une pour toi, Arius, et une autre pour toi, Lyphe). Ces deux courts résumés sont disponibles à la fin de ce message dans une balise "secret". J’espère ne pas m’être trompé dans la formulation des différents points de ces deux condensés car non seulement le sujet est complexe et riche, mais certaines de vos phrases ne me semblaient pas assez précises pour être interprétées de manière déterministe (exemple tout bête : parfois dans vos interventions, vous utilisez le terme de "proactivité" pour désigner le fait de détecter des messages terros, parfois ça semble plutôt concerner la partie censure/suppression, du coup plusieurs interprétations s’offrent au lecteur). Ce travail d’agrégation des différentes connaissances que vous avez partagées sur ce topic a été réalisé sur 3 soirées, après de nombreuses lectures, re-lectures, re-re-lectures, nécessaires pour des raisons évidentes mais aussi parce que vous vous corrigiez mutuellement de réponse en réponse (ce qui ajoute de la complexité pour se faire une idée figée de la réponse finale à ce topic, laquelle se dégage difficilement de tous vos échanges).

Au final, suite à ce travail de fourmi, j’ai pu utiliser ces deux listes qui finalement résument vos interventions (cependant pas vos échanges, car elles ne comportent pas la donnée suivante : "Arius ou Lyphe a corrigé Lyphe ou Arius au niveau des messages suivants : […]"), afin d’être en mesure de proposer la réponse finale à ce topic.

C’est cette réponse finale à ce topic que je souhaite dégager ici grâce à l’analyse de vos interventions à travers mes deux listes. Sans ça, le lecteur, même assidu, ne pourrait la comprendre à moins de faire le travail de fourmi d’analyse et d’agrégation de vos échanges et correctifs mutuels.

Réponse finale

- Concernant la "détection"… :

  • Comment peut-on être proactif au niveau de la détection de contenus illicites (terrorisme, pédopornographie, problèmes de droits d’auteur) ?

    • Machine learning, analyse de liens. Un système de signalement peut suffire.
  • Doit-on être proactif quant à la détection de contenus illicites ?

    • Non, jamais dans le cadre d’une conversation privée. Par contre il est recommandé de mettre en place un système de signalement.

    • Oui obligatoirement, hors conversation privée, pour les contenus illicites qui sont des cas de flagrance (un message évidemment terroriste, ou encore toutes les vidéos d’un site de streaming illégal).

    • Autrement : non pas du tout.

  • Doit-on adapter la détection à la taille de l’entreprise ?

    • Pour tout type de contenu autre qu’illégal : oui (exemple : droits d’auteur, mais pas que). Sinon, non : toutes les entreprises, quelle que soit leur taille, doivent être en mesure de bien détecter des contenus illégaux avec la même efficacité.

- Concernant le "signalement" (un cas particulier de détection)… :

  • Le signalement peut provenir d’autorités ou autres (utilisateurs par exemple) ; l’origine de ce signalement n’influence en aucun cas ses conséquences en matière de censure

  • Si un contenu illicite est signalé, il faut censurer. Et d’autant plus s’il y a flagrance.

  • Il faut informer les autorités sans délai si preuves d’infraction pénale ou menace et rendre le contenu publiquement inaccessible mais le garder sur le serveur

- Concernant la "censure"… :

  • Si un contenu illicite est signalé, il faut censurer. Et d’autant plus s’il y a flagrance.

  • Il faut informer les autorités sans délai si preuves d’infraction pénale ou menace et rendre le contenu publiquement inaccessible mais le garder sur le serveur

  • La censure, suite à une détection (incluant les signalements), doit se faire sous 1h à 24h selon le type de contenu signalé

  • La censure doit être précise et être conséquente à une décision fondée, cette dernière devant inclure une vérification humaine comme quoi la détection a vu juste. Ceci afin de protéger les droits humains, la liberté d’expression, et la protection des données personnelles.

- Concernant les "messages privés"… :

  • En MP : c’est privé donc rien de tout cela ne s’applique pas vraiment, on peut cependant mettre en place un système de signalement. Pas de proactivité en MP même pour des contenus terros et autres flagrances.

  • Si un mail perso est reçu ou envoyé dans une boîte pro, d’après la jurisprudence : si absence de "[PRIVE]" dans l’objet, alors l’administrateur ou hébergeur peut y accéder.

- Concernant la notion d’"éditeur"… :

  • Légalement responsable de tout ce qu’il affirme (loi liberté presse et loi 1881), au même titre qu’un hébergeur.

- Concernant la "Loi de l’Anti-terrorisme"… :

  • Finalement pas grand chose à voir avec ces sujets

  • Deux petites notions apportées par Lyphe (au-dessus, on a du Lyphe et de l’Arius) :

    • Depuis l’anti-terro, tout contenu signalé par les autorités doit être censuré sous 2h. =» Invalidé par Arius
  • Les grosses entreprises doivent être proactives pour des contenus terros et similaires, pas les petites. =» invalidé par Arius mais aussi par Lyphe lui-même dans un message qui succède à celui-ci.

Liste des notions apportées par Arius et Lyphe au cours de leurs échanges

D’après Arius :

  • informer autorités sans délai si preuves d’infraction pénale ou menace et rendre le contenu publiquement inaccessible mais le garder sur le serveur

  • moyens de détection = adaptés à la taille de l’entreprise pour tout type de contenu problématique autre qu’illégal, par exemple droits d’auteur. Cela comprend : du machine learning, de la détection de liens. Mais un système de signalement peut suffire.

  • proactivité concerne juste les moyens de détections

  • contenu terro etc. (flagrance) implique proactivité, sinon pas de proactivité


  • tout contenu illicite porté à la connaissance de l’hébergeur doit être censuré, notamment les cas de flagrance bien sûr
  • signalement = autorités ou autres
  • si signalement d’un contenu illicite = censurer
  • censure = sous 1h à 24h selon le pb

  • censure = précise et décision fondée, devant inclure une vérification humaine comme quoi la détection est correcte

  • éditeur = responsable de son contenu comme l’hébergeur

  • en MP : c’est privé donc tout cela ne s’applique pas vraiment, on peut cependant mettre en place un système de signalement. Pas de proactivité en MP même pour des contenus terros et autres flagrances.


D’après Lyph :

  • Depuis l’anti-terro, tout contenu signalé par les autorités doit être censuré sous 2h.
  • Les grosses entreprises doivent être proactives pour des contenus terros et similaires, pas les petites.
  • Si éditeur : légalement responsable de tout ce qu’on affirme (loi liberté presse et loi 1881).
  • Conversation privée = aucun droit d’accès sauf d’après un cas de jurisprudence : si mails d’ordre privé sans "[PRIVE]" dans une boîte pro.

  • Tant qu’aucune autorité ne signale, l’hébergeur ne doit pas supprimer, sauf en cas de flagrance. Ces cas de flagrance impliquent en outre une proactivité, fixée par les règles anti-terro et cette proactivité est indépendante de la taille de l’entreprise.

  • La détection de contenu est adaptée à la taille de l’entreprise uniquement si c’est un pb de droit d’auteur

+0 -0
Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte