Utilisateur:EmilieRgr/Brouillon

Une page de Wikipédia, l'encyclopédie libre.

Modération d'information[modifier | modifier le code]

La modération consiste à juger si un contenu publié par un utilisateur est approprié ou non sur différentes plateformes comme les réseaux sociaux, les forums, ou encore les sites web. Celui-ci peut être déplacé, supprimé intégralement ou en partie. Dans certaines situations, le contenu est vérifié avant d’être publié, mais dans la majorité des cas, le contenu est publié sans régulation a priori, et il s’agit ensuite de vérifier que celui-ci suive les règles de la plateforme. Le contenu peut s’agir d’une page web, d’un commentaire, d’un post sur un réseau social ext.

L’utilisateur chargé de la modération se nomme un modérateur qui accepte ou non le contenu sur la plateforme. La modération ne se fait pas uniquement par un humain et certains réseaux sociaux tels que YouTube ou Facebook utilisent des algorithmes de détection[1]. Ensuite, ce sont des modérateurs qui approuvent ou non le contenu[2]. Dans certains cas, comme celui du vol de propriété intellectuelle, le contenu peut être retiré à l’aide d'algorithmes sans intervention humaine.

Le métier de modérateur devient une nécessité pour qu' internet reste un espace viable. Face à des contenus violents ou haineux, le métier de modérateur peut impacter négativement psychologiquement ceux qui l’exercent.[3]

Origine de la modération[modifier | modifier le code]

La France fait figure de précurseur dans le domaine de la modération. Les premières entreprises à pratiquer la modération sont les éditeurs de services de messagerie anonyme par minitel et audiotex. Ces sociétés proposent des services de messagerie instantanée payants à l'usage selon le modèle du kiosque Télétel de France Télécom. Elles seront rapidement confrontées à une double problématique : la sauvegarde de leur chiffre d'affaires et la protection juridique de l'entreprise et de ses dirigeants.

un cadre réglementaire contraignant[modifier | modifier le code]

Du côté de l’Union européenne, la CEDH (la Convention de sauvegarde des droits de l’homme et des libertés fondamentales du Conseil de l’Europe) se fait par application directe. L’alinéa premier article 10 accorde à toute personne le droit à la liberté d’expression. Mais il existe des limites à ce droit.

L’union européenne admet une large palette d’exceptions : la prévention du crime, la protection de la morale, ou bien celle de la réputation ou des droits d’autrui, et la mise en balance avec certains droits des tiers. En effet, l’Alinéa 2 de l’article 10 de la CEDH affirme que la liberté d’expression est soumise à « à certaines formalités, conditions, restrictions ou sanctions » prévues par les loi. En France, l’article 24 de la loi du 29 juillet 1881 condamne la provocation publique à la discrimination, à la haine ou à la violence raciale ou en raison du sexe, de l’orientation sexuelle, ou d’un handicap. L’Article 24 bis incrimine la négation des crimes contre l’humanité commis durant la deuxième guerre mondiale. Enfin la Loi du 21 juin 2004 incrimine ces actes commis par voie électronique. Cette dernière loi en écho avec les précédentes propose les bases de la modération.

Cependant, chaque entreprise peut proposer ses règles, plus contraignantes, ou moins. Dans ce dernier cas, et que ces entreprises sont externes à l’union européenne, un conflit s’exerce entre cadre réglementaire de l’union européenne et l’autre part qui est moins régulé dans son pays.

Motifs de modérations[modifier | modifier le code]

La modération d'information peut s'effectuer selon plusieurs motifs. Dans un premier cas, lorsque le contenu est au mauvais endroit il peut être déplacé. Mais il peut aussi outrepasser les règles de la plateforme, ou le cadre réglementaire. Dans cette situation, nous pouvons alors citer les motifs suivants :

  • suspect ou publie du spam (faux compte, lien vers un site dangereux mmalveillant ou hameçonnage, spam…).
  • contient une photo ou vidéo sensible (pour adultes, violent, haineux, photo ou vidéo non autorisé, exploitation sexuelle d’enfants).
  • propos tenus innapropriés ou dangereux ( propos tenus irrespectueux ou choquant, informations privées dévoilées, harcèlement ciblé, propos incitant la haine envers une catégorie protégée (sur la base d’une origine ethnique, d’une caste, d’une religion, d’un sexe, d’une orientation sexuelle ou d’un handicap, l’utilisateur menace de faire usage de la violence ou de blesser quelqu’un, propos incitant la l’automutilation ou au suicide).
  • induit en erreur au sujet d’élections (comprend de fausses informations sur des élections ou l’inscription sur les listes électorales, compren de fausses information susceptibkes de troubler l’ordre publi ou d’alterer la sincérité d’un des crutins).
  • exprimes des intention suicidaires ou autodestructrices.

Types de contenu qui peuvent être modérés[modifier | modifier le code]

3 types de contenus peuvent être modérés.

  • Le texte où un filtre de texte est crée et une classification basés sur le contexte détectent et retire le contenu inappropriés. les contenus sensibles et les mots interdits comme les menaces et les discours de haine sont automatiquement détectés et supprimés.
  • les images où lorsqu’elles présentent de la violence, des armes, de la nudité, des drogues ou encore du gore sont automatiquement détectées et supprimées.
  • La modération des vidéos suit les mêmes règles que celles des images.

Processus de modération :[modifier | modifier le code]

La modération s’effectue selon une certaine manière. Dans le cas le plus classique :

  1. Un utilisateur du système de publication utilise une interface de saisie pour une nouvelle information (article [archive], critique [archive], actualité, photo, séquence vidéo ou autres selon les sites) ;
  2. Une fois l'information rédigée et validée par l'utilisateur, un système d'alerte ou de notification (par exemple par courrier électronique) prévient un responsable (appelé modérateur [archive] du site) qu'une nouvelle information [archive] est disponible ;
  3. Le modérateur utilise une interface spéciale —dite interface de modération— pour indiquer au système de publication si l'information est valide ou non ;
  4. Selon les systèmes de publication, l'auteur [archive] peut être prévenu de la décision du modérateur, parfois avec un message [archive] indiquant le motif de refus, le cas échéant [archive].

Type de modération[modifier | modifier le code]

Une information ou un commentaire qui est modéré avant d'être publié est qualifié de modération a priori. Par contre, une information ou un commentaire peut être publié dès sa soumission par un utilisateur du système de publication du site web ; ce n'est qu'ensuite que la modération peut éventuellement intervenir dans une modération a posteriori.

A priori[modifier | modifier le code]

La modération a priori est souvent exploitée pour la publication d'articles sensibles (actualités, critiques ou analyses par exemple). Elle permet à n'importe quel internaute de proposer une information ou un commentaire à publier [archive]. C'est lors de la modération que seront effectués le contrôle en vérifiant que l'information ou le commentaire reste légal (pas de discrimination raciale, pas d'atteinte à l'ordre public, pas de pédophilie…), en s'assurant que l'article est en adéquation avec la ligne éditoriale du site et en s'assurant que les images n'entachent pas le droit à l'image d'une personne sur le site.

A posteriori[modifier | modifier le code]

La modération a posteriori est plutôt employée pour les commentaires que peuvent laisser les visiteurs au sujet d'un article. Dans ce cas, il est parfois prévu qu'une alerte soit envoyée par courrier électronique à l'auteur de l'article, afin qu'il puisse intervenir en cas d'abus (exemple : spams dans les commentaires).

Avec le développement du Web 2.0, la modération des contenus est plutôt de type a posteriori, laissant les internautes alerter le modérateur du non-respect de la charte du site web. Le modérateur traite alors ces alertes de façon réactive. En complément, le modérateur effectue des contrôles par échantillon.

Ce processus de modération étant devenu essentiel pour plusieurs grands portails communautaires. Plusieurs prestataires, tels que Netino, Conciléo ou Atchik en France, se sont positionnés sur ce créneau et offrent un service de modération. La multiplication des espaces de réactions en ligne et des médias sociaux conduit les opérateurs du secteur à développer leurs propres outils de modération

Manière de modérer[modifier | modifier le code]

Afin de modérer les entreprises ont recours à différents moyens. A l'origine, une petite communauté de bénévoles effectuait la modération. Avec l’ampleur du phénomène internet, de nouveaux outils ont été développés. Les algorithmes de tri sont très efficaces, ainsi que l’intelligence artificielle qui permet de repérer des contenus non appropriés. Mais une présence humaine est toujours nécessaire pour une part des cas, pour ignorer le signalement ou supprimer le contenu.

Automatisé : Algorithmes de tri[modifier | modifier le code]

Lorsque la modération automatique est utilisée, aucun effort humain n'est demandé et empêche directement que des contenus inacceptables apparaissent en ligne.

Il existe des outils tels que les filtres et le traitement du langage naturel. Ceux-ci interdisent certains mots et expressions. Ils sont dans un premier temps identifiés, puis signalés, et enfin modifiés ou complètement supprimés. Les liens provenant d'adresses IP interdites sont également retirés.

source : https://fr.isahit.com/blog/the-ultimate-guide-of-content-moderation-in-2022

Lorsque des messages sont postés par un troll ou constituent des spams, la modération s'effectue de façon spécifique

Semi-automatisé : algorithme identifie et propose à des personnes[modifier | modifier le code]

Il existe une multitude d’outils automatisés utilisés pour filtrer, classifier ou encore organiser les informations que nous voyons en ligne. La plupart fonctionnent sur la base d’intelligence artificielle ou de procédés d'apprentissage automatique et sont déployés pour participer à la modération des contenus publiés sur certains sites.

Ces algorithmes, utilisés par la modération de contenu, sont limités à plusieurs égards et leur compréhension est nécessaire aujourd’hui, étant donné qu’ils sont de plus en plus adoptés par les plateformes en lignes.

Dans le cas de Facebook, ces algorithmes sont souvent présentés comme une solution miracle pour décharger les modérateurs humains d’une partie de leur travail. Dans les faits, ces algorithmes sont limités. Ils ont un taux d’erreur non négligeable et ne peuvent pas agir indépendamment, sans que des modérateurs humains n'aient besoin de les assister pour corriger les erreurs inévitablement commises.

Manuel : personnes payé à bas coût : une catégorie exposés à des choses horribles d’autres non[modifier | modifier le code]

En 2019, Sarah T. Roberts, professeure et universitaire américaine, publie Behind the Screen : The Hidden Digital Labour of Commercial Content Moderation contenu généré par les utilisateurs pour les plateformes de médias sociaux de tous types, afin de s'assurer que le contenu est conforme aux exigences légales et réglementaires, aux directives du site ou de la communauté, aux accords d'utilisation, et qu'il s'inscrit dans les normes de goût et d'acceptabilité pour ce site et son contexte culturel »communautés en ligne, ce travail était essentiellement réalisé par des bénévoles, ce modèle de modération n’est aujourd’hui plus viable pour les grandes plateformes. Elles vont, dans la majorité des cas, faire appel à des sous-traitants pour assurer cette tâche coût du travail[réf. nécessaire indique wiki ]. Ces personnes sont appelées les nettoyeurs du web. L'utilisateur de ces plateformes ne voit pas de « tête coupées, [...] de poussins déchiquetés [ou] de chiens écorchés », car des travailleurs de l'ombre dans les pays du sud (en particulier dans le pays anglophone que sont les Philippines) font ce travail de modération. Les troubles psychologiques de ces derniers, qui pratiquent le Commercial Content Moderation, préoccupent peu les entreprises de l'Internet, puisque, s'ils ne démissionnent pas d'eux-mêmes, ils sont licenciés au bout de deux ans

Ces pratiques sont dénoncées dans THE CLEANERS par  Hans Block, Moritz Riesewieck. Ce documentaire montré à Genève dans le cadre du Festival du film et forum international sur les droits humains, rend hommage à ces nettoyeurs du web.

Bien que ce soit un métier très difficile, c’est un métier d’avenir. Face à la croissance d’internet, de plus en plus de modérateurs sont demandé. Ainsi Facebook passe de 12 personnes pour modérer ses publications en 2009, à 4500 en 2017, et 7500 un an après.

Limite de la modération : la place de la liberté d'expression[modifier | modifier le code]

Une des limites de la modération peut se trouver dans son opposition avec la liberté d’expression. Aux Etats-Unis, la capacité des plateformes numériques à pouvoir supprimer un contenu légal ou garder un contenu haineux est garantie par la section 230 du Communication Decency Act de 1996 qui permet de garantir la liberté d’expression des réseaux sociaux eux-mêmes[4]. Cependant, cette immunité des plateformes peut entrer en opposition avec la liberté des utilisateurs, qui sont dépourvus de contrôle sur le traitement de leur contenu sur les réseaux sociaux. Certains procès ont eu lieu contre les plateformes pour avoir supprimé des contenus ou des comptes jugés inappropriés, comme le cas de CasaPound. En 2019, Facebook supprime la page du parti italien fascite, pour incitation à la haine par les symboles nazis répétés sur leur page. En réponse, les responsables du parti ont saisi le tribunal de Rome pour que la plateforme rétablisse leurs pages.[5]

La juridiction romaine donne raison à CasaPound en considérant que Facebook a porté atteinte à leur liberté d’expression et leur capacité de participer au débat public. Son raisonnement s’appuie sur la position incontournable de Facebook dans l’espace public, les partis politiques devraient donc être en possibilité de l’utiliser pour atteindre leurs électeurs.

Le projet de loi Digital Services Act, porté par la Commission Européenne en 2021 cherche à encadrer ces procédures de modération au sein des réseaux sociaux en Europe, afin de protéger les libertés des internautes européens. Ce projet repose sur une plus grande transparence des processus de modération au sein des plateformes. Il reste critiqué pour la faible contrainte qu’il impose aux réseaux sociaux,  les conditions d’utilisation étant toujours librement déterminées et appliquées par les plateformes.[6]


  1. «  », sur Electronic Frontier Foundation (consulté le 3 avril 2023)
  2. «  », sur egalibex.univ-lyon3.fr (consulté le 3 avril 2023)
  3. Modèle {{Lien web}} : paramètre « titre » manquant. https://www.vie-publique.fr/eclairage/285115-dsa-le-reglement-sur-les-services-numeriques-ou-digital-services-act, sur www.vie-publique.fr (consulté le 3 avril 2023)
  1. (en) Queenie Wong, « Murders and suicides: Here's who keeps them off your Facebook feed », sur CNET (consulté le )
  2. « Meurtres, pornographie, racisme… Dans la peau d’un modérateur de Facebook », Le Monde.fr,‎ (lire en ligne, consulté le )
  3. (en) Casey Newton, « The secret lives of Facebook moderators in America », sur The Verge, (consulté le )
  4. « Section 230 », sur Electronic Frontier Foundation (consulté le )
  5. « La modération par les plateformes porte-t-elle atteinte à la liberté d’expression ? Réflexions à partir des approches états-unienne (Zhang v Baidu.com, 2014) et italienne (Casapound contro Facebook, 2019) – Egalibex », sur egalibex.univ-lyon3.fr (consulté le )
  6. Modèle {{Lien web}} : paramètre « titre » manquant. [1], sur www.vie-publique.fr (consulté le )