RTBFPasser au contenu
Rechercher

Monde

Deux petites filles décèdent suite au "Blackout challenge" sur TikTok, les parents portent plainte mais le réseau social a peu de risque d’être condamné

Les parents de deux fillettes américaines, décédées après s’être auto-asphyxiées, ont porté plainte contre la plateforme chinoise TikTok. Ils accusent l’algorithme de la plateforme d’avoir conduit leurs enfants respectifs, âgés de 8 et 9 ans, à participer au "blackout challenge": un défi qui encourage les participants à s’étouffer avec un foulard, jusqu’à l’évanouissement.

Le défi du "blackout challenge" – ou en français "jeu du foulard" – existe depuis longtemps sur les réseaux sociaux. Chaque année, il provoque des accidents, dont certains mortels. L’objectif : bloquer sa respiration jusqu’à l’évanouissement, pour connaître des sensations fortes. Le tout, en étant filmé.

Ce dangereux challenge a provoqué la mort de deux jeunes filles : Lalani, 8 ans, et Arriani, 9 ans. Les deux ont été retrouvées pendues, une corde autour du cou. "Lalani pensait que si elle postait une vidéo d’elle-même en train de relever le blackout challenge, elle deviendrait célèbre", détaille la plainte qui a été déposée à l’encontre du géant TikTok.

Pour l’avocat des victimes, Matthew Bergman, "TikTok doit être tenu responsable pour avoir ciblé ces deux jeunes filles avec des contenus mortels." Il met en cause "la page de découverte" de contenus de l’application : la "For You Page". Sur cette page, l’algorithme propose aux utilisateurs des vidéos en fonction de leurs goûts.

Pourquoi l’algorithme a-t-il proposé du contenu potentiellement dangereux à ces deux jeunes filles ?

Cet évènement soulève de nombreuses questions. Parmi elles, celles qui tournent autour de l’algorithme de TikTok. Pourquoi l’algorithme a-t-il proposé du contenu potentiellement dangereux à ces deux jeunes filles ? N’aurait-il pas pu le supprimer ?

Le contenu affiché dans le fil d’actualité TikTok d’un utilisateur – et plus généralement, de tous les réseaux sociaux – est calculé par un algorithme prédéfini par des informaticiens, engagés par les plateformes. L’algorithme est pensé de manière à automatiser un processus répondant à des règles, elles-mêmes définies par la plateforme.

"Ces règles sont pensées pour rendre l’utilisateur dépendant à la plateforme" explique Pierre Schaus, professeur à l’Institut des technologies de l’information et de la communication à l’UCLouvain. L’algorithme sélectionne donc ce qui va, ou non, apparaître sur vos écrans grâce à plusieurs facteurs tels que le temps de visionnage sur certaines vidéos ou les contenus que vous "likez".

Et bien que cet algorithme soit fait pour proposer des contenus ciblés aux utilisateurs, il apparaît très compliqué pour TikTok d’automatiser la suppression d’une vidéo. "L’intelligence artificielle ne permet pas encore à l’heure actuelle d’identifier et de retirer automatiquement un contenu 'jugé' sensible. Elle n’est pas capable de comprendre la sémantique qui se cache derrière l’action engagée par la personne derrière son écran", ajoute Pierre Schaus.

Heureusement, bien qu’elle ne sache pas le faire automatiquement, la plateforme est mécaniquement capable de supprimer des vidéos. Pour ce faire, il faut que les contenus "problématiques" aient été signalés par les utilisateurs. Et dans ce cas, la plateforme est obligée de les supprimer.

Et d’un point de vue légal, alors ? TikTok est-il obligé de retirer certains contenus ?

On peut également se poser la question de l’aspect légal, qui encadre ce genre d’évènement. Les plateformes devraient-elles considérer qu’un contenu "susceptible" de mettre en danger la vie d’autrui est un problème et donc, le supprimer ? Mettre en cause la responsabilité de TikTok et la manière dont les algorithmes fonctionnent n’est pas si évident.

"il faut savoir qu’en Europe et aux Etats-Unis, la législation a, jusqu'à présent, protégé les entreprises de toute responsabilité vis-à-vis des publications des utilisateurs" explique Maître Louis Godart, spécialisé dans le droit des nouvelles technologies. "En effet, les plateformes telles que Facebook, Instagram ou TikTok ont toujours été considérés comme des ‘hébergeurs' et non des ’éditeurs‘ de contenu.

Leur responsabilité n’était engagée que dans l’hypothèse où des contenus litigieux étaient portés à leur connaissance par notification, et qu’ils n’en suspendaient pas promptement leur diffusion. Tel est le cas lorsqu’un utilisateur signale des contenus à caractère pornographique, des discours haineux ou encore, des menaces.

Dans le cas d’un défi tel que "le jeu du foulard", TikTok se réfugiera donc derrière sa qualité d’hébergeur, et avancera que les contenus en question ne lui ont pas été signalés. Toutefois, la plainte déposée aux États-Unis apportera un éclairage nouveau sur le fait de savoir si un hébergeur tel que Tiktok peut être tenu pour responsable de la redirection des contenus litigieux.

Quelles solutions ?

Ce malheureux évènement pose de nombreuses questions. Et pourtant, il risque de se reproduire. Le "challenge du foulard" n’est pas le seul défi dangereux présent sur les réseaux sociaux et il pourrait faire d’autres victimes. Pour éviter que cela ne se reproduise, plusieurs pistes :

La transparence des algorithmes

Selon Maître Louis Godart, il convient de rendre les plateformes de réseaux sociaux plus responsables quant à la manière dont elles redirigent les contenus vers leurs utilisateurs, et plus transparente sur les algorithmiques qu’elles utilisent.

Le Digital Services Act et le règlement sur les marchés numérique (DMA), voté par le Parlement européen le 5 juillet 2022 vont dans cette direction et vers une plus forte responsabilisation des plateformes. Ces règlements vont notamment instituer des obligations de contrôle, de gestion et de retrait de contenus illicites et offrir des garanties aux consommateurs sur les contenus publiés et objet de modération.

Par ailleurs, les très grandes plateformes se verront imposer des obligations de transparence en matière de système de recommandations. Ainsi, les utilisateurs devront être mieux informés de la manière dont les contenus leur sont recommandés et pourront choisir au moins une option qui ne soit pas fondée sur le profilage.

Sécuriser davantage l’accès aux réseaux sociaux

Les deux fillettes décédées avaient respectivement 8 et 9 ans. Or en principe, l’application TikTok est réservée aux utilisateurs de 13 ans ou plus. Au moment de créer son compte, l’enfant doit ainsi indiquer sa date de naissance. S’il n’a pas l’âge requis, il ne peut, en principe, pas poursuivre la configuration. Mais évidemment, rien ne l’empêche de contourner cette règle.

Une solution pour éviter que les enfants ne s’inscrivent, serait d’obliger les plateformes à renforcer leurs conditions d’inscription. Ils pourraient par exemple demander une photo de la carte d’identité pour s’inscrire. Mais dans ce cas, la vérification d’âge imposerait une vérification d’identité. Et donc, il faudrait que l’utilisateur accepte de céder à la plateforme certaines de ses données personnelles. Ce qui peut également poser question…

Responsabiliser les parents, et éduquer les enfants

Certes, les réseaux sociaux peuvent avoir un effet néfaste sur les jeunes. Sans aucun doute, ils multiplient les dérives. "Le jeu du foulard" existait déjà avant la création de TikTok. Il se pratiquait dans les cours d’école et les enfants qui y participaient faisaient partie des cas isolés. Mais maintenant, depuis l’arrivée des réseaux sociaux, les accidents se multiplient et les tendances se propagent extrêmement vite.

Les parents ont un rôle important à jouer pour éviter ce genre de drame. "Il est essentiel d’informer les enfants sur les risques que comportent les réseaux sociaux en général, et bien leur expliquer que ce genre de challenge est dangereux" insiste Marine Fanon, psychologue.

Elle se veut toutefois rassurante : "Si un enfant est bien entouré, avec des parents présents et un cadre installé à la maison, il y a peu de chance qu’il ait envie de s’adonner à ce genre de challenge". Il est important d’expliquer à l’enfant qu’il ne faut pas considérer les réseaux sociaux comme un tout, et que l’enfant existe en dehors de la vie virtuelle.

Sur le même sujet

Constance Wu a tenté de se suicider à cause des réseaux sociaux

Tipik

TikTok suspend une mise à jour imposant la publicité ciblée en Europe

Monde

Articles recommandés pour vous