Actu médias

Modération sur Facebook et Instagram : vers la fin des privilèges accordés aux personnalités ?

Quand des messages en infraction avec le règlement sont signalés, ils sont retirés. Mais si leur auteur est sur "liste blanche", ils restent en ligne plusieurs jours, voire plusieurs mois.

© Halfpoint Images

06 déc. 2022 à 13:37Temps de lecture2 min
Par Belga, édité par Julien Covolo

Le conseil de surveillance de Meta a reproché mardi aux plateformes du géant des réseaux sociaux d’accorder un traitement de faveur aux contenus problématiques publiés par des politiques, des patrons, des célébrités et d’autres personnalités.

"Le conseil est préoccupé par la façon dont Meta a fait passer ses intérêts économiques avant la modération des contenus", a assené l’entité qualifiée d’indépendante, mais financée par l’entreprise.

Dans son rapport, elle appelle à une "refonte significative" du programme de double vérification baptisé "cross-check", pour le rendre plus transparent, plus réactif et plus juste.

Double standard

Actuellement, quand des messages ou images potentiellement en infraction avec le règlement de Facebook ou d’Instagram sont signalés, ils sont rapidement retirés s’ils sont considérés comme à haut risque et s’ils viennent d’utilisateurs non connus.

Mais si leur auteur est présent sur la "liste blanche", ces contenus restent en ligne le temps d’être examinés de plus près – un processus qui prend en général plusieurs jours, et parfois plusieurs mois.

Ce système à double vitesse, "inéquitable" a donc "offert des protections supplémentaires à l’expression de certains utilisateurs, sélectionnés en partie en fonction des intérêts économiques de Meta", détaille le rapport.

A cause de "cross-check", "des contenus identifiés comme contraires aux règles de Meta restent visibles sur Facebook et Instagram, alors qu’ils se diffusent de façon virale et qu’ils pourraient causer des dommages", admoneste le conseil de surveillance.

Il recommande d’accélérer les examens secondaires des contenus de personnalités susceptibles de publier des messages importants pour les droits humains, et de retirer ceux à haut risque en attendant le verdict interne.

Il demande aussi à l’entreprise de publier les critères d’éligibilité pour bénéficier du programme, et d’identifier publiquement, sur les plateformes, les comptes des utilisateurs concernés.

La réponse de Meta jugée insuffisante

L’entité est composée de 20 membres internationaux, journalistes, avocats, défenseurs des droits humains et anciens dirigeants politiques. Elle a été créée en 2020 sur proposition du patron Mark Zuckerberg et est chargée d’évaluer la politique de modération des contenus du groupe californien.

Les membres ont lancé un examen de "cross-check" en octobre 2021, après les révélations de la lanceuse d’alerte Frances Haugen, qui a fait fuiter des documents internes à la presse et accusé l’entreprise de faire passer "les profits avant la sécurité" de ses utilisateurs.

Les réponses de Meta à l’enquête ont été "insuffisantes par moments" et "sa propre compréhension des implications pratiques du programme laisse à désirer", a indiqué le conseil.

Inscrivez-vous aux newsletters de la RTBF

Info, sport, émissions, cinéma...Découvrez l'offre complète des newsletters de nos thématiques et restez informés de nos contenus

Sur le même sujet

Articles recommandés pour vous