Entre incitation à la haine et liberté d'expression, Facebook tranche parfois curieusement. La censure exercée par le réseau social est aujourd'hui largement contestée à cause de règles de modération incomplètes, révèle une enquête de ProPublica.

Trop opaque pour certains, arbitraire pour d'autres, la politique de modération de Facebook pour combattre l'incitation à la haine et les propos racistes a été dévoilée dans le cadre d'une enquête inédite sur les coulisses du premier réseau social mondial, publiée mercredi 28 juin. 

VOIR AUSSI : Facebook face au casse-tête de la modération des vidéos violentes

L'organisation sans but lucratif ProPublica, spécialisée dans le journalisme d'enquête, s'est en effet procurée des documents internes qui donnent à voir les critères sur la base desquels les modérateurs Facebook choisissent de censurer ou non une publication. À l'instar de ce slide qui interroge les employés : "Quelle catégorie devez-vous protéger ?".

Sous la question, trois exemples de publications. La photo d'une conductrice, celle de deux enfants noirs et celle d'une photo d'un groupe d'hommes blancs (dont on devine qu'il s'agit du groupe Backstreet Boys). Étonnamment, la bonne réponse n'est autre que la troisième : le groupe d'hommes blancs.

Car, comme l'affirme ProPublica, les règles défendues par Facebook conduisent les modérateurs à censurer tout discours de haine formulé à l'encontre des hommes blancs qui figurent dans la "catégorie protégée", tandis que les deux autres populations représentées dans le slide – les femmes et les enfants noirs – appartiennent à ce qu'ils nomment des "sous-catégories". Affligeant.

Des "catégories protégées" et des "sous-catégories"

Comment une chose pareille est-elle possible sur le plus grand réseau social de la planète ? Les politiques de modération du réseau social sont incohérentes ou au moins très incomplètes. Facebook reconnaît ainsi avoir des "catégories protégées" basées exclusivement sur la race, le sexe, l'identité de genre, la religion, l'origine, l'ethnie, l'orientation sexuelle et les maladies ou handicaps sérieux. Pas de place donc pour d'autres filtres transversaux comme l'âge, la profession et l'occupation – comme le fait d'être une femme conductrice.

C'est ce qui explique aussi qu'une publication comme celle du député républicain américain Clay Higgins appelant à "chasser, identifier et tuer" les "musulmans radicalisés" n'a pas été censurée. En revanche, celle de l'activiste Didi Delgado, membre du mouvement Black Lives Matter, qui affirme que "tous les blancs sont racistes" a, elle, été bloquée.

Pourquoi ? Pour Facebook, Clay Higgins fait référence à une "sous-catégorie" et ne fait donc pas l'objet d'une modération accrue. Tandis que la seconde mentionne une population définie par sa race et appartient donc à la "catégorie protégée" par le réseau social. C'est le terme "radicalisé" qui fait toute la différence ici, puisque si le député avait appelé à la haine des musulmans en général, sa publication aurait été supprimée.

Une censure qui est aussi d'ordre politique

Une autre règle –  que le réseau social affirme avoir supprimé – appelle les modérateurs de Facebook à censurer les publications louant "la violence pour résister à l'occupation d'un État internationalement reconnu". C'est ainsi que des statuts d'activistes et de journalistes dans des territoires dont l'appartenance est contestée, comme en Palestine, en Crimée, au Cachemire et au Sahara occidental, se sont retrouvés supprimés.

Alors bien sûr, Facebook reconnaît volontiers que ses règles sont perfectibles. "Nos politiques ne mènent pas toujours à des résultats parfaits", affirme ainsi à ProPublica Monika Bickert, directrice des politiques de management chez Facebook. "Mais il s'agit de politique de modération qui s'applique à une communauté globale, où les gens ont des idées très différentes de ce qui peut être partagé ou non."

"Face aux leaks, Facebook veut jouer la carte de la transparence"

Même son de cloche du côté du vice-président de la politique publique chez Facebook en Europe, au Moyen-Orient et en Asie. Dans le cadre des Hard Questions, lancées par le réseau social le mois dernier, Richard Allan avait lui aussi reconnu les difficultés que représentaient le travail de modération.

Face aux leaks et aux enquêtes sur Facebook, à l'instar des révélations du Guardian en mai dernier, le réseau social veut jouer la carte de la transparence. En matière de modération, en tout cas, il faut reconnaître que Facebook revient de loin. En 2008, quatre ans après sa création, ses règles de censure ne tenaient que dans une seule page en bas de laquelle était mentionné ce principe : "Supprimez tout ce qui vous rend mal à l'aise", fait savoir Dave Willner, employé de l'entreprise en charge des contenus.

Depuis, Dave Willner a contribué à la rédaction d'un recueil de censure qui compte 15 000 mots. Mais ce catalogue doit nécessairement continuer à s'épaissir tant aujourd'hui, la censure sur Facebook est loin d'être suffisante et satisfaisante.

– Adapté par Majda Abdellah. Retrouvez la version originale sur Mashable.

Quelque chose à ajouter ? Dites-le en commentaire.