Selon The Verge, c’est dans le groupe Horizon officiel de Facebook que l’utilisatrice a dénoncé des faits survenus lors d’une séance de test à grande échelle : son avatar a été harcelé et "peloté" virtuellement par un autre avatar.
"Le harcèlement sexuel n’est déjà pas drôle sur internet, mais être en réalité virtuelle ajoute une couche qui rend l’événement plus intense", a-t-elle écrit, rapporte The Verge. "Je n’ai pas seulement été pelotée hier soir, il y avait également d’autres personnes qui soutenaient ce comportement, ce qui m’a donné un sentiment d’isolement dans cet espace".
Le vice-président de Meta, a réagi en qualifiant l’incident d'"absolument malheureux". Tout en soulignant qu’il existe une possibilité d’utiliser un outil de sécurité qui crée une bulle autour de soi, une "safe zone", pour bloquer les interactions avec d’autres avatars.
C’est tout le métavers qui devrait être safe
Miriam Ben Jattou est juriste et présidente de l’association "Femmes de Droit". La réponse apportée par Meta est pour elle révélatrice d’un problème de fond. "Pour moi la réponse de Facebook n’est absolument pas adaptée : il faut que l’ensemble de l’univers virtuel soit un espace suffisamment secure où on ne risque pas de subir des violences sexistes, racistes, homophobes…", pointe-t-elle. "La réalité virtuelle une autre forme de réalité mais il y a des conséquences psychocorporelles qui sont identiques à ce qui se passe dans la vraie vie. Or dans la vraie vie, ça ne nous viendrait pas à l’idée de dire à une victime : tu es harcelée dans la rue, et bien ne sors plus de chez toi, on va te mettre une bulle et tu ne sortiras plus et comme ça, tout ira bien."
Fondamentalement, c’est à Meta de garantir la sécurité des utilisateurs et utilisatrices, souligne-t-elle. "On a des lois, des traités internationaux de l’ONU qui parlent des violences envers les femmes, des violences raciales ou envers les personnes en situation de handicap, alors pourquoi Meta n’intégrerait pas le contenu de ces conventions dans ses règles d’utilisation ?" En cas de non-respect, "le personnage ne pourrait plus avoir accès à certaines parties du jeu, ou serait supprimé".
La modération pose déjà problème sur les réseaux sociaux classiques. Dans l’univers 3D du métavers, au-delà des propos tenus, le comportement des avatars est lui aussi susceptible de déraper. Un enjeu qui inquiète en interne, comme l’a révélé le Financial Times : le directeur des nouvelles technologies de Meta, Andrew Bosworth a alerté ses équipes sur le risque que le métavers devienne un "environnement toxique" pour les femmes et les minorités.
"C’est une question de moyens", réplique Miriam Ben Jattou. "Pour que ça puisse être mis en place efficacement, il faut qu’il y ait des humains derrière qui contrôlent, qui vérifient, qui sanctionnent si nécessaire. S’ils estiment que ça va être difficile à mettre en place, c’est parce qu’ils ont décidé de ne pas mettre de moyens humains à cet endroit-là. Ça ne peut pas être appliqué par une intelligence artificielle, incapable de comprendre le second degré par exemple."
A côté des sanctions qui s’appliqueraient dans le métavers, il y a aussi la possibilité de poursuivre en justice les auteurs cachés derrière les avatars. Mais l’arsenal juridique actuel est-il adapté à cette évolution virtuelle ?
Pour la juriste, la réponse est oui, en théorie - "rien n’empêche d’appliquer la loi là : quand on parle d’espace public, c’est y compris les espaces virtuels" - mais en pratique, l’expérience des poursuites qui ont déjà lieu aujourd’hui pour des cas de harcèlement sur des réseaux sociaux classiques invite à la nuance : "En Belgique on peut déposer plainte et les auteurs peuvent être poursuivis. Même si, en pratique, il y a très peu de poursuites et peu de condamnations. Les outils qu’on a à disposition me semblent sous-exploités." Il y a cependant une réelle prise de conscience notamment politique, estime la juriste.