Facebook a détaillé jeudi ses mesures de lutte antiterroriste. Une annonce qui intervient au lendemain de la mise au point par Emmanuel Macron et Theresa May d'un plan d'action contre la propagande djihadiste sur Internet.

Facebook a un problème avec le terrorisme et il s'est enfin décidé à le résoudre. Ou du moins à communiquer publiquement sur ses efforts en la matière. Le premier réseau social mondial a annoncé jeudi 15 juin des mesures (pour certaines déjà connues) impliquant l'utilisation de l'intelligence artificielle, censée scanner chaque mot, chaque image et chaque vidéo, afin d'en finir avec la propagande terroriste qui pulule sur sa plateforme.

VOIR AUSSI : Facebook face au casse-tête de la modération des vidéos violentes

Exigeant des ressources humaines considérables, le projet va mobiliser une équipe de 150 experts. "Nous concentrons actuellement la plupart de nos technologies de pointe sur la suppression des contenus terroristes de l'État islamique, d'Al-Qaïda et de toutes leurs filiales, et nous espérons étendre ce système à d'autres organisations terroristes, en temps voulu", explique Facebook dans un communiqué.

L'annonce intervient alors que les pressions se font croissantes du côté des gouvernements et des utilisateurs touchés par des actes terroristes, qui exigent de Facebook le retrait des contenus de propagande terroriste ou incitant à la violence. Mercredi, Theresa May et Emmanuel Macron ont ainsi mis au point un plan d'action contre la propagande terroriste sur les réseaux sociaux.

Plus de transparence

La demande de modération se fait de plus en plus insistante et Facebook en prend acte. L'entreprise assure aujourd'hui que l'équipe de 150 employés mobilisés travaille "en exclusivité ou en priorité" à la lutte antiterroriste. Parmi eux : des experts en contre-terrorisme, des procureurs, des anciens policiers et des ingénieurs.

"Facebook sollicite l'aide des utilisateurs"

Facebook va également travailler en collaboration avec plusieurs partenaires, à l'instar de l'Institute for Strategic Dialogue (ISD), un laboratoire d'idées spécialisé dans la recherche en sécurité, et l'Affinis Labs, un site d'entrepreneuriat numérique, pour "lutter contre l'extrémisme et la haine en ligne".

Ce travail de communication sur ces mesures antiterroristes devrait être le premier d'une série d'efforts menés par le réseau social pour expliquer publiquement comment il tente de répondre à la myriade de problèmes qu'il a généré ou contribué à créer. Baptisé "Hard Questions", ce travail de com' est censé faire évoluer l'entreprise sur des sujets épineux, en sollicitant notamment des retours de son audience. Ainsi, le réseau lance une adresse mail – hardquestions@fb.com –  via laquelle les utilisateurs peuvent directement faire part de leurs commentaires et suggestions sur les différents problèmes à résoudre.

Comment tout ça fonctionne ?

"La technique de l'image matching, pour identifier et supprimer des vidéos extrémistes"

Facebook n'en dit que très peu sur le fonctionnement global de son algorithme, mais a néanmoins partagé plusieurs détails sur sa technologie de correspondance d'images, l'image matching. Via la technique dite du "video fingerprinting", les algorithmes sont capables d'identifier et de supprimer des vidéos extrémistes avant même qu'elles n'aient été rendues publiques.

Reste à savoir comment l'algorithme prend en compte le contexte des images, lorsque par exemple, une photo du drapeau du groupe État islamique est utilisé dans le cadre d'une propagande ou d'un article de presse.

Facebook expérimente également des technologies d'apprentissage automatique pour détecter les textes faisant l'apologie du terrorisme, sur le base des textes précédemment repérés sur la plateforme.

Mais toutes ces mesures n'empêchent pas les personnes radicalisées de rejoindre le réseau social pour y communiquer et recruter des aspirants djihadistes.

Le cas Facebook Live et WhatsApp

De nombreuses difficultés restent encore à régler. D'abord, l'activité terroriste se déplace vers d'autres réseaux sociaux et les terroristes privilégient désormais des applis de messagerie cryptées comme Telegram ou WhatsApp dont Facebook est aussi propriétaire. Ensuite, l'outil Facebook Live, en permettant à n'importe qui de diffuser son message en temps réel, peut devenir une arme de propagande redoutable. En juin 2016, l'auteur du double meurtre de Magnanville s'était filmé en direct sur le réseau social pour revendiquer son crime. Le tueur d'Orlando avait lui écrit plusieurs messages sur son mur au moment même où il attaquait le Pulse.

La publication de ces annonces marque un réel changement en matière de transparence pour Facebook. Le réseau social nous avait habitués jusqu'alors à garder ces décisions privées. Le geste est donc à saluer, bien qu'il en faudra certainement beaucoup plus que quelques changements d'algorithmes pour relever tous les défis qui s'imposent aujourd'hui sur Facebook et ailleurs.

– Adapté par Majda Abdellah. Retrouvez la version originale sur Mashable.

Quelque chose à ajouter ? Dites-le en commentaire.