AccueilActualités informatiqueMetaversum : "Une combinaison toxique de risques pour les enfants"

Metaversum : « Une combinaison toxique de risques pour les enfants »

Une journaliste s’est fait passer pour une jeune fille de 13 ans pour une enquête de la BBC sur l’application de réalité virtuelle VRChat, où elle a été victime d’insultes racistes et de cybergrooming – un comportement agressif d’adultes envers des enfants dans des espaces virtuels. Elle aurait même été menacée de viol.

La journaliste a pu visiter des salles dans lesquelles « des avatars simulaient des rapports sexuels » dans une application VR autorisée pour les jeunes à partir de 13 ans, comme l’écrit la BBC. De nombreux hommes l’auraient abordée. On lui a également montré des jouets sexuels et des préservatifs.

Sommaire

Andy Burrows, qui s’occupe de la sécurité des enfants sur Internet au sein de l’organisation de protection de l’enfance NSPCC, voit dans les espaces virtuels une « combinaison toxique de risques » pour les enfants et les adolescents. « Il s’agit d’un produit dangereux en raison d’omissions et de négligences. Nous voyons des produits arriver sur le marché sans que la sécurité n’ait été prise en compte, ne serait-ce qu’un tout petit peu ».

Lire aussi

Dans le cadre de son enquête, BBC News s’est entretenue avec un expert en sécurité qui a enquêté sur VRChat pendant des mois. Il a déclaré que les enfants étaient contraints d’avoir des relations sexuelles virtuelles sur la plateforme et de reproduire des mouvements sexuels. Il a également ajouté que la musique diffusée dans les salles n’était pas adaptée aux enfants.

VRChat a déclaré à la BBC qu’elle travaillait dur pour faire de son application « un lieu sûr et accueillant pour tous ». Meta, la société mère de Facebook – qui fabrique les casques Oculus les plus vendus, avec deux tiers des parts de marché – est consciente des « défis de l’industrie ». « Pour les applications multiplateformes, où les utilisateurs se connectent depuis d’autres plateformes, téléphones portables ou consoles, nous fournissons des outils permettant aux joueurs de signaler et de bloquer d’autres utilisateurs », a expliqué Bill Stillwell, le chef de produit VR de Meta.

Dans les propres applications VR de Meta, comme Horizon Venues, il est déjà possible de « couper le son, de bloquer et de signaler » d’autres utilisateurs. En outre, Meta a récemment introduit une distance minimale pour empêcher les « interactions indésirables ». L’entreprise ne peut toutefois pas agir directement contre les utilisateurs qui se connectent à ces applications tierces comme VRChat.

Plus d'articles