YouTube annonce avoir examiné manuellement un million de vidéos au contenu suspect

YouTube annonce avoir examiné manuellement un million de vidéos au contenu suspect
YouTube annonce avoir examiné manuellement un million de vidéos au contenu suspect - © YouTube

Après la diffusion en direct de l'attentat de Christchurch en Nouvelle-Zélande, les plateformes de partage de vidéos redoublent de vigilance.

Pour y parvenir, Google a chargé plus de 10 000 employés de vérifier le contenu de ces vidéos suspectes. Un processus fastidieux, qui aurait coûté à l'entreprise plusieurs centaines de millions de dollars. Mais quand l'algorithme, qui règne en maître sur YouTube, ne parvient pas à écarter les contenus douteux, il faut bien régler le problème manuellement. 

En trois mois, Google a donc examiné plus d'un million de vidéos et en a supprimé 9%, soit 90 000 vidéos au contenu illicite, qualifié de "terroriste" selon le règlement de la plateforme. 

Dans les jours suivant la tragédie de Christchurch, une vidéo de la fusillade était uploadée sur la plateforme chaque seconde. Depuis, une loi a été votée en Australie, pour empêcher ce genre de contenu de se répandre sur les plateformes de partage. Une loi similaire est à l'étude en Europe. Si elle est votée, les plateformes auront l'obligation de tout mettre en oeuvre pour supprimer chaque contenu terroriste moins d'une heure après sa mise en ligne.