Entre violence et fake news, l'enfer des modérateurs

Entre violence et fake news, l'enfer des modérateurs
Entre violence et fake news, l'enfer des modérateurs - © Pixabay

Gilles Quoistiaux nous plonge dans le calvaire très "Orange mécanique" que vivent de nombreux modérateurs qui travaillent pour Facebook.

Les modérateurs, ce sont ces nettoyeurs du web qui visionnent à longueur de journée des vidéos très dures et qui sont chargés de supprimer les contenus les plus offensants. Ils sont bombardés toute la journée d'images parfois insoutenables.

Le site internet The Verge a mené l'enquête auprès d'une dizaine d'anciens employés de la société Cognizant, un sous-traitant de Facebook spécialisé dans la modération de contenus.

Les modérateurs sont confrontés à des contenus très violents, mais aussi à de la pédopornographie, au harcèlement, au sexisme, à la xénophobie, aux fake news, au complotisme, au négationnisme,... Leur récit est assez glaçant.


400 publications à visionner par jour

Le travail est très encadré, comme dans un call center. Ils reçoivent sur leur écran jusqu'à 400 publications Facebook par jour. Ils ont moins de 30 secondes pour décider si une publication est conforme ou non aux règles de Facebook, avant de passer à la publication suivante. Des managers vérifient plusieurs fois par jour s'ils ne se trompent pas, la marge d'erreur tolérée est de 5% seulement.

Certains modérateurs souffrent de stress, de problèmes de sommeil, de crises de panique, voire de stress post-traumatique, à force de voir tant de contenus violents chaque jour.

Facebook et son sous-traitant ont conscience de ces difficultés et essaient de leur fournir un bon cadre de travail ainsi qu'un soutien psychologique. Le salaire est un peu plus élevé, même s'il n'est pas encore suffisant selon The Verge, qui constate que les modérateurs sont assez jeunes et quittent souvent l'entreprise après un an ou deux. 
 

La robotique au secours des modérateurs ?

Facebook, c'est deux milliards d'utilisateurs, sans compter le milliard d'utilisateurs d'instagram, qui appartient au groupe. Et c'est plusieurs milliards de publications par jour.

Vu cette complexité, le réseau social compte aussi sur l'intelligence artificielle pour faire le tri, en ayant recours à des logiciels de plus en plus perfectionnés.

Toutefois, son patron Marc Zuckerberg admet que ces technologies ne sont pas encore suffisamment au point et que les collaborateurs humains sont toujours indispensables.

Ce sont donc plus de 15 000 personnes à travers le monde qui font ce travail de modération aujourd'hui.


Veiller à la crédibilité de Facebook

La détection des fake news est un enjeu crucial pour la crédibilité de Facebook. Le réseau est en effet attendu au tournant depuis le scandale de Cambridge Analytica, impliqué dans la propagation de fake news pour favoriser l'élection de Trump.

Les modérateurs doivent détecter les fausses informations sur le réseau, séparer le vrai du faux. Or, il est quasiment impossible de prendre ce genre de décisions en quelques secondes.  Résultat : bombardés d'informations, certains ne parviennent plus à discerner le vrai du faux et à faire le tri. D'autres, à force de voir ces publications complotistes, finissent même par adhérer à ces thèses. 

Cela démontre que les campagnes de fake news sont redoutables. Soumis à une certaine forme de matraquage, on peut finir par croire à n'importe quoi...

Newsletter La Première

Recevez chaque vendredi matin un condensé d'info, de culture et d'impertinence.

OK