L'algorithme de Youtube est-il l'ami des prédateurs sexuels? 

Certaines vidéos d’enfants, qui semblent tout à fait innocentes, totalisent des centaines voire des millions de vues.
Certaines vidéos d’enfants, qui semblent tout à fait innocentes, totalisent des centaines voire des millions de vues. - © Pixabay

Une enquête du New York Times révèle que l’algorithme de Youtube favorise l’émergence, dans les recommandations, de vidéos de jeunes enfants. Ces vidéos, innocentes, postées par les enfants ou leurs parents, atteignent parfois les centaines de milliers de vues.
 

L'algorithme de recommandation de YouTube aiderait les prédateurs sexuels dans leurs recherches sur Internet. Ces prédateurs sexuels, et plus précisément les amateurs de jeunes enfants, ne se retrouvent pas uniquement sur des sites cachés ou discrets. Ils utilisent aussi les grandes plateformes Internet pour faire leurs recherches, et notamment YouTube.

Des journalistes du New York Times ont mené l’enquête et ont fait des découvertes assez interpellantes. Ils ont découvert que certaines vidéos d’enfants, qui semblent tout à fait innocentes, totalisent des centaines voire des millions de vues. Ils ont par exemple repéré une vidéo d’une enfant de dix ans jouant dans une piscine, vidéo consultée plus de 400.000 fois.

Les journalistes ont contacté la mère de l’enfant, qui s’est évidemment déclarée horrifiée du nombre de visites sur cette vidéo familiale qu’elle avait postée sur YouTube, sans trop réfléchir aux conséquences. En effet, si on ne configure pas sa chaîne Youtube pour la rendre privée, toutes les vidéos postées peuvent être consultées et partagées par n’importe qui.
 

Pourquoi un tel nombre de vues ?

La réponse se trouve dans l’algorithme de recommandation de YouTube. Sur YouTube, les vidéos s’enchaînent sans interruption. L'algorithme propose généralement un contenu similaire ou proche de ce que l'on vient de regarder. Il suggère aussi quelques vidéos complémentaires sur le bord de l’image, que l'on peut sélectionner.

Par exemple, si vous venez de regarder un résumé du dernier match de Roger Federer à Roland-Garros, YouTube va vous proposer une vidéo sur les 10 plus beaux coups de Roger Federer ou une vidéo sur les plus gros clashs sur les courts de tennis.

L’objectif est de vous retenir le plus longtemps possible sur YouTube pour vous proposer des publicités ciblées.


Malsain et glaçant

Dans le cas de la vidéo de l’enfant dans sa piscine, c’est l’algorithme de recommandation qui a rapidement propulsé ce contenu dans un grand ensemble de vidéos similaires.

Cet algorithme de recommandation a créé un ensemble de contenus dédié aux jeunes enfants en maillot de bain. Des chercheurs cités par le New York Times ont étudié ces vidéos qui sont connectées entre elles. Ils ont fait tourner l’algorithme de recommandation de YouTube pendant des heures et des heures. Et ils se sont rendu compte que cela formait un ensemble d’images et de vidéos qu’ils qualifient de 'dérangeantes'.


Un 'tunnel de recommandations'

Le problème, c’est que les utilisateurs n’arrivent pas jusqu’à ces vidéos par hasard. Ils y arrivent en empruntant une sorte de 'tunnel de recommandations', qui mène à ces vidéos de jeunes enfants.

Il fonctionne sur ce que les chercheurs appellent le 'rabbit hole effect', ou 'l’effet du terrier de lapin'. Dès qu’on a enclenché une vidéo, on est aspiré dans l’ouverture du terrier, on progresse dans la galerie, dans l’enchaînement de vidéos, sans pouvoir en sortir.

Le problème de ce 'rabbit hole effect', c’est qu’il vous propose des vidéos toujours plus extrêmes, toujours plus trash. 

D’autres connexions entre les vidéos sont plus inquiétantes. Les chercheurs cités par le New York Times ont découvert que les personnes qui regardent des vidéos à caractère sexuel, par exemple une conversation de femmes parlant de sexe, vont recevoir progressivement des recommandations de vidéos plus explicites de femmes en sous-vêtements, puis de femmes de plus en plus jeunes qui proposent des services sexuels à des sugar daddies, puis de femmes posant en vêtements d’enfants, puis d'enfants dénudés ou en maillot de bains.


La réaction de YouTube

Youtube n'a pas modifié son algorithme de recommandation, depuis ces révélations du New York Times. 

Il faut savoir que YouTube a déjà été épinglé en février dernier par le magazine Wired. Ce magazine a découvert qu’un nombre incroyable de chaînes YouTube partagent des vidéos d’enfants. Sous ces vidéos, on retrouvait des commentaires très explicites de prédateurs sexuels.

Suite à ce précédent scandale, YouTube a perdu de très gros annonceurs, comme Disney, Nestlé et Mc Donald’s, qui ne voulaient pas que leur image soit mêlée à ce type de visionnage.

YouTube a réagi. La plateforme affirme avoir désactivé des dizaines de millions de commentaires et près de 400 chaînes dédiées aux vidéos d’enfants, des chaînes qui étaient visiblement alimentées et visionnées par des personnes aux penchants pédophiles.

Par contre, YouTube a annoncé que l’algorithme de recommandation ne serait pas modifié. YouTube conteste l’existence du 'rabbit hole effect'. La recommandation est la source de trafic la plus importante sur la plateforme. 70 % des vidéos sont consultées grâce à cet algorithme. C’est donc un gros enjeu pour Youtube. Et ça pourrait expliquer les réticences de la plateforme à modifier ou désactiver cet algorithme.

 

Retrouvez ici cette sombre chronique de Gilles Quoistiaux

Newsletter La Première

Recevez chaque vendredi matin un condensé d'info, de culture et d'impertinence.

OK