Sous pression, la filiale de Google a décidé d’agrandir son équipe de modération pour mieux garder un œil sur les vidéos hébergées sur sa plateforme. Une tâche titanesque et de plus en plus complexe.

C’est une fin d’année compliquée pour YouTube. Ces derniers mois, plusieurs polémiques ont éclaté, mettant en lumière leur manque de contrôle des chaînes proposant des vidéos extrémistes ou diffusant aux enfants des contenus parodiques malsains, pourtant connus depuis près d’un an. Plusieurs marques ont retiré leurs publicités et le site a décidé de supprimer de nombreuses chaînes et vidéos problématiques.

VOIR AUSSI : Comment les chercheurs français ont enfin pris les youtubeurs au sérieux

Le 4 décembre, Google est allé plus loin en promettant, pour 2018, un total de 10 000 personnes chargées de la modération des vidéos sensibles. Mais le destin d’une vidéo souffre parfois de biais algorithmiques et humains, même si les missions de chacun sont très précises.

Il faudrait 24 000 personnes à plein temps pour visionner tout YouTube en temps réel

Chez YouTube, les modérateurs, en fonction de leurs attributions, doivent commencer par maîtriser plusieurs règlements. D’abord, les conditions générales, qui renvoient à des aspects techniques et contractuels lorsqu’on ouvre une chaîne. Ensuite, les règles de monétisation, système qui permet aux vidéastes de placer des publicités avant (pre-roll) ou pendant leurs vidéos (mid-roll), et de recevoir en échange une part des revenus générés par YouTube. La fameuse "YouTube money". Enfin, et c’est le texte plus important : le règlement de la communauté. Il explique notamment qu’une vidéo ou une chaîne considérée comme dangereuse, violente, incitant à la haine, proférant des menaces, mettant en place un harcèlement ou même ne respectant pas certains droits d’auteurs, sera interdite.

Pour faire face aux 400 heures de vidéos publiées chaque minute, les modérateurs se reposent d’abord sur une intelligence artificielle, "l’apprentissage automatique" qui effectue un premier tri, indispensable. Sans lui, on évalue à 24 000 le nombre de personnes à plein temps qu'il faudrait employer pour tout visionner au quotidien. Les robots de YouTube sont capables de scanner les tags fournis par l’utilisateur, les mots du titre, ou même les images pour en comprendre le contenu (dès 2012, on l’entraînait à reconnaître les vidéos de chats). Dans son communiqué du 4 décembre, Susan Wojcicki, directrice générale de YouTube, affirmait que "98 % des vidéos extrémistes et violentes" supprimées sont signalées grâce aux algorithmes et que "70 % des contenus violents extrémistes dans les huit heures suivant leur téléchargement et presque la moitié dans les deux heures".

YouTube a mis en place des "trusted flaggers" chargés de la veille

Ces chiffres ont augmenté ces derniers mois, mais cela n'est toujours pas suffisant. C’est là que l’action humaine intervient. YouTube a mis en place des "trusted flaggers", c’est-à-dire des associations, des professionnels ou utilisateurs "de confiance" chargés de la veille, et compte aussi et surtout sur la vigilance des internautes, qui peuvent signaler les vidéos et les commentaires en quelques clics, et même mentionner des passages précis. En fonction de la gravité des faits reprochés à une vidéo, celle-ci peut être temporairement bloquée et transmise aux modérateurs de YouTube, qui entrent alors en jeu.

Des modérateurs actifs 7j/7, 24h/24

Ces derniers, qui se relaient sept jours sur sept et vingt-quatre heures sur vingt-quatre, ne réalisent pas de veille eux-mêmes. Ils sont chargés de passer en revue la liste des vidéos signalées qui arrive chaque jour sur leur ordinateur. En plus du contenu de la vidéo, ils doivent baser leur décision sur le reste de la chaîne, afin de mieux comprendre l’intention du vidéaste épinglé. En cas de besoin, nous a-t-on précisé, un modérateur peut alors engager un échange avec ses collègues pour prendre sa décision. Un débat interne qui peut se révéler important, souligne-t-on chez Google, notamment quand il s’agit de bien comprendre le contexte du contenu. Dans le cas d’une vidéo où un animal se fait maltraiter par exemple, l’approche sera différente si l’auteur la présente comme du divertissement ou s’il veut dénoncer ce genre de comportement. Il peut alors imposer une limite d’âge sur la vidéo, la supprimer, envoyer un avertissement (le fameux strike) ou suspendre la chaîne.

Les équipes en charge de la monétisation fonctionnent à peu près de la même façon quand on leur signale une production potentiellement inadaptée aux marques : ils peuvent décider de confirmer ou non la démonétisation. Dans les deux cas, le youtubeur peut faire appel de la décision et demander une nouvelle vérification humaine.

Il ne s’agira pas uniquement de modérateurs, mais également d’avocats

Google France a tenu à nous préciser que les personnes recrutées et chargées de "lutter contre les contenus susceptibles de violer nos politiques" auront un contrat de travail chez Google, et non chez un sous-traitant. Elles viendront de différents pays et devront parler la langue des contenus qu’elles analyseront. Ces précisions étaient indispensables pour Google, depuis que l’on sait, par exemple, que Facebook a embauché des sous-traitants philippins pour effectuer sa modération.

Il faut savoir aussi, dans le cas de Google, qu’il ne s’agira pas uniquement de modérateurs, mais également d’avocats, qui réfléchiront à l’amélioration du règlement, ou d’ingénieurs chargés d’améliorer l’apprentissage automatique des robots du site. "Nous continuons à élargir le réseau de chercheurs et d’experts qui peuvent nous aider à progresser, ainsi qu'à mieux anticiper et comprendre les différentes menaces qui pèsent sur notre plate-forme", affirme ainsi Susan Wojcicki. L’effet d’annonce est efficace. Pour autant, le travail des modérateurs n’en reste pas moins complexe.

Incompréhensibles remonétisations et démonétisations

Prenons l’exemple du très polémique Raptor Dissident qui, depuis près de trois ans, s’attaque avec violence et une "bonne dose de haine" aux féministes, aux manifestants de gauche ou encore aux médias. Ses vidéos, qui cumulent des millions de vues, ont même régulièrement provoqué des vagues de harcèlement en ligne, notamment contre la vidéaste Marion Séclin en 2016. La majorité de ses productions, où sont pourtant proférées des insultes, sont encore disponibles au moment où nous écrivons ces lignes. Avec ce type de positionnement, Google défend l’idée que des opinions contraires à ses valeurs puissent s’exprimer, et se dédouane se réfugiant derrière un simple rôle d’hébergeur.

Des vidéos supprimées sont encore disponibles sur d’autres chaînes avec le même titre

Plusieurs vidéos du Raptor ont en revanche été supprimées par YouTube après signalement, notamment celles sur Marion Séclin et les SJW (mot péjoratif pour désigner des personnes défendant des causes progressistes) en raison de contenus "incitant à la haine". Or, ces vidéos sont encore disponibles sur d’autres chaînes, près d’un an après leur mise en ligne initiale, avec le même titre, et cumulent des centaines de milliers de vues. Les modérateurs et les robots sont-ils passés à côté ? De nombreux vidéastes se revendiquant ironiquement de la "fachosphère" bénéficient de ces réuploads ignorés par Google pour maintenir leur discours en ligne.

La monétisation pose des questions similaires sur le Raptor. Très logiquement, en vertu des règles sur les contenus adaptés ou non aux annonceurs, ses contenus sont assez vite démonétisés. Or, il s’est passé quelque chose d’assez surprenant avec sa dernière production, "Malika LePen : Femme de Gauche – Expliquez Moi Cette Merde #10", où le vidéaste lance des insultes en tout genre, et notamment homophobes. Après avoir fait appel d’une démonétisation le lendemain de la mise en ligne, un modérateur de chez Google a étonnamment validé la monétisation. C’est-à-dire qu’une première personne a estimé que cette vidéo pouvait "plaire" aux annonceurs, qu’elle était "ad-friendly". Il a fallu attendre un second signalement pour qu’un autre modérateur confirme la démonétisation. Un revirement qui alimente depuis spéculations et soupçons de censure chez les partisans du youtubeur, qui croient même qu'il a été évincé de la page Tendances. Google France n’a pas souhaité s’exprimer sur ce cas précis.

À l’inverse, et surtout depuis une récente polémique sur la répartition des publicités sur YouTube, des vidéastes proposant des contenus pédagogiques et respectant les règles de la communauté ont bien du mal à maintenir la monétisation. Désormais, des vidéos historiques ou traitant d’actualités risquent d’être démonétisées plus facilement, ce qui représente un manque un gagner terrible pour de nombreux vidéastes spécialisés et beaucoup plus de vidéos à traiter pour les modérateurs.

"Un de mes 'lives' a été remonétisé, et pas d’autres, alors que c’est le même contenu"

Nota Bene a vu les publicités de sa très sérieuse vidéo sur l’histoire de la croix gammée disparaître. Même chose pour Julien Ménielle, de "Dans Ton Corps", qui a réalisé une vidéo éducative sur le clitoris. Après avoir envoyé un message à YouTube, il a pu constater que la démonétisation et la restriction d’âge ont été levées… avant d’être réinstaurées peu de temps après. Justin Ganivet, qui parle de sécurité informatique sur sa chaîne PointSécu, ne connaît que trop bien le problème. "Sur mes vidéos live, par exemple, comme je parle de sécurité informatique, il y a le tag 'hack'", explique-t-il à Mashable FR. "Eh bien tous ces lives ont vite été démonétisés, alors que je ne raconte pas de choses problématiques. Et là, j’ai regardé, un de mes lives a été remonétisé, et pas d’autres, alors que c’est le même contenu. C’est difficile de comprendre."

Le jeune vidéaste, et beaucoup d’autres, reprochent ainsi à YouTube un manque de transparence sur ses pratiques et ses critères. "Dans leur annonce, ils donnent des pourcentages de contenus supprimés, mais ils ne disent pas combien ont été signalés à tort", note Justin Ganivet. Le fameux communiqué promet, à ce sujet, que des rapports réguliers fourniront en 2018 des "données globales concernant le signalement des vidéos" et que YouTube réfléchira à la création de "nouveaux outils permettant d’être encore plus transparents sur les contenus signalés". En attendant, les décisions des modérateurs restent souvent floues aux yeux des créateurs, creusant un peu plus leur défiance vis-à-vis de YouTube.

Quelque chose à ajouter ? Dites-le en commentaire.