Des problèmes en matière de modération ont forcé le réseau social à repenser une partie de sa stratégie de sécurité.

ProPublica, un organisme américain sans but lucratif, a interpellé Facebook quant à sa politique de modération des contenus. Et le réseau social a admis avoir commis des erreurs. 

VOIR AUSSI : Un ancien dirigeant de Facebook affirme que le réseau social est "en train de détruire la société"

En juin dernier, Facebook dépassait les 2 milliards d'utilisateurs actifs. Un nombre impressionnant quand on sait que les contenus postés sur le réseau social sont modérés par "seulement" 7 500 employés, en plus des algorithmes remplissant également cette fonction. Et c'est justement ce qu'a voulu prouver ProPublica, en confrontant Facebook à 49 publications au caractère haineux. Le réseau social a alors pris conscience que sur lesdits exemples, il avait fait 22 erreurs. 

"Nous sommes désolés pour les erreurs commises, elles ne sont pas le reflet de la communauté que nous voulons aider à construire. Nous devons faire mieux", a expliqué Justin Osofsky, le vice-président de Facebook dans un communiqué relayé par ProPublica.

"Nous devons faire mieux"

Il a ensuite ajouté que l'équipe de sécurité doublerait prochainement, avec un total de 20 000 employés pour 2018. Enfin, il précise que Facebook supprime environ 66000 post signalés comme haineux chaque semaine, mais que "tout ce qui était offensant ne constituait pas forcément un discours de haine".

L'année se termine de manière compliquée pour le réseau social, qui a notamment fait face aux récentes – et nombreuses – déclarations incriminantes de plusieurs de ses anciens employés. Cependant, Facebook continue d'affirmer essayer de faire en sorte d'être un espace plus sain via diverses mesures, comme la traque des publications "putaclics" ou du "revenge porn"

Quelque chose à ajouter ? Dites-le en commentaire.