Le quotidien britannique The Guardian a eu accès à des documents internes révélant ce qui est demandé aux modérateurs. Le moins que l'on puisse dire, c'est que ces consignes, jusqu'alors tenues secrètes, sont plutôt floues.

Suicides en direct, contenus violent, pornographie, terrorisme, propos haineux... Comment une plateforme aussi influente que Facebook peut-elle contrôler tout ce qui transite chaque minute par elle ? Alors qu'il est aujourd'hui un éditeur à part entière, le réseau social se voit incomber un rôle de régulateur qui semble le dépasser.

VOIR AUSSI : Facebook utilise une IA pour détecter les risques de suicide chez ses utilisateurs américains

Dimanche 21 mai, The Guardian a révélé des informations sur la politique de modération du géant américain. Le quotidien britannique a eu accès à plus de 100 slides à destination des modérateurs, autant de documentation interne listant les consignes qui leur sont données. Il apparaît qu'elles sont assez complexes et relèvent souvent du cas par cas.

Surtout, difficile de ne pas remarquer comme le manque de transparence des règles appliquées par Facebook, et ici révélées à la faveur d'une fuite, en fait aujourd'hui un censeur. "Ces documents révèlent les décisions politiques de Facebook. Alors que l’entreprise affirme sans cesse que son rôle n’est pas un rôle éditorial, ceux-ci attestent du contraire", commente Sarah Roberts, chercheuse en sciences de l’information à l’université de Californie de Los Angeles (UCLA).

10 secondes pour modérer

Alors qu'il est exigé de toutes parts que Facebook fasse honneur à sa mission de modération, c'est un défi sans précédent qui s'impose. En effet, les volumes à modérer sont beaucoup plus importants qu'auparavant, font remarquer les salariés de l'entreprise de Mark Zuckerberg. "Facebook n'est plus capable de surveiller ses contenus. Ils sont de plus en plus importants et grossissent à vue d'œil", a affirmé une source en interne. Il est dit qu'un modérateur de Facebook ne dispose que d'une moyenne de 10 secondes pour formuler sa décision.

Un des registres les plus difficiles à appréhender est celui des contenus sexuels.  Avec l'apparition de pratiques comme le revenge porn, les modérateurs doivent faire face à de nouvelles questions. Ils sont tenus de supprimer ce type de photos, mais il leur appartient alors de pouvoir prouver qu'elles ont bien été prises dans un cadre privé puis partagées sans le consentement du sujet.

Des règles plutôt floues

Surtout, il semblerait qu'aucune règle dans l'absolu n'existe ; nombre de cas demeurent l'affaire de jugements personnels. Souvent, les consignes manquent de consistence. Par exemple :

– Une vidéo de mort violente n'est pas nécessairement à supprimer : on peut considérer qu'elle peut nourrir un débat sur les maladies mentales.

– Quant aux séquences montrant une maltraitance (non-sexuelle) à l'égard d'un enfant, elles peuvent ne pas être censurées à partir du moment où elles ne sont pas une façon de célébrer des mauvaises pratiques.

– Par ailleurs, le réseau social n'a pas l'intention d'interdire les Facebook Lives de "personnes essayant de se faire du mal" car une telle censure reviendrait à "punir des individus vulnérables".

– Notons également que les appels au meurtre à l'égard de Donald Trump sont interdits puisqu'ils concernent une personnalité sous haute protection tandis qu'il est possible de publier "Pour rompre le cou d'une sal*pe, appuyez bien sur son thorax" ou "Je vais te tuer" à un autre internaute, ces menaces n'étant pas considérés comme crédibles. "La plupart du temps, les propos violent ne sont qu'à l'image d'un état émotionnel passager. Nous les tolérons sauf quand ils cessent d'être l'expression d'une colère et laissent entendre un passage à l'acte", peut-on lire dans les documents.

– Il est possible de partager des photos et vidéos d'animaux maltraités, mais les contenus les plus sensibles doivent être identifiés comme tels afin de prévenir l'internaute sur ce qu'il s'apprête à voir.

– Les vidéos d'avortement sont autorisées à condition qu'il n'y ait aucune nudité apparente.

– L'art mettant en scène la nudité ou une activité sexuelle est autorisé s'il est réalisé "à la main" mais celui réalisé aux moyens numériques ne l'est pas.

Le plus grand censeur au monde

En étant une plateforme consultée par plus de 2 milliards d'utilisateurs, Facebook est devenu de facto le plus grand censeur au monde. S'il lui est demandé de surveiller les contenus publiés, il lui est aussi parfois reproché d'avoir la censure trop facile. Ce fut par exemple le cas pour la photo de "la fille au napalm", icônique cliché de la guerre du Vietnam, supprimée sous le motif que le sujet est dénudé. Le réseau social a rectifié le tir en élargissant l'autorisation de la nudité aux photos de guerre, tout en marquant une limite avec "la nudité des enfants dans le contexte de l'Holocauste".

Facebook a fait savoir au Guardian que bon nombre des contenus sont filtrés automatiquement, mais que le géant américain tient aussi à ce que "les gens puissent discuter de l'actualité... c'est la raison pour laquelle le contexte dans lequel une image violente est partagée est une donnée à parfois prendre en compte".

Reste qu'entre son devoir de protéger les utilisateurs des contenus indésirables et celui de garantir la liberté d'expression, Facebook navigue à vue et doit encore trouver un moyen d'optimiser son équilibre.

Quelque chose à ajouter ? Dites-le en commentaire.