Comment Mark Zuckerberg va-t-il assurer la sécurité de son métavers?

Un mémo interne d’Andrew Bosworth, consulté par des journalistes du Financial Times expose l’ampleur du défi.

L’homme à qui Mark Zuckerberg a donné les rennes du projet métavers – annoncé comme la prochaine évolution de l’Internet – a déclaré vouloir assurer «des niveaux de sécurité proches de ceux de Disney» pour la plateforme, tout en reconnaissant que la réalité virtuelle peut s’avérer un «environnement toxique, en particulier pour les femmes et les minorités».

Le harcèlement et les comportements délétères peuvent être exacerbés par la nature immersive de ce nouvel univers. C’est ce qui a été mis en évidence dans une étude réalisée en 2019 par des chercheurs d’Oculus, la division de Facebook dédiée à la réalité virtuelle. Ils ont constaté que plus d’un cinquième de leurs 422 répondants avaient signalé une «expérience inconfortable».

Subir une agression dans un monde virtuel où vous êtes physiquement incarné, peut-être très dommageable psychologiquement. Le ressentit sera le même qu’un assaut dans le monde réel. D’autant plus que Meta est en train de développer des gants haptiques capables de donner la sensation du toucher.

La revue technologique du MIT a soulevé d’autres inquiétudes. Si les jeunes filles sont en mesure de personnaliser leurs avatars virtuels de manière hyperréaliste en 3D, ou de modifier, filtrer et manipuler leurs identités numériques, des normes de beauté «irréalistes et inaccessibles» pourraient avoir un impact désastreux sur l’estime de soi. Une problématique (la dysmorphie corporelle) déjà documentée sur Instagram et à laquelle l’entreprise n’a pas encore apporté de réponse.

Les mesures envisagées pour assurer la sécurité 

A l’heure actuelle, Facebook donne aux utilisateurs des outils pour signaler les abus et bloquer les utilisateurs avec lesquels ils ne souhaitent pas interagir.

Une vidéo sur la sécurité de Horizon Worlds, un jeu social développé par Facebook, explique comment l’entreprise enregistre et stock localement le déroulé de la partie dans le casque de réalité virtuelle porté par l’utilisateur.

Pour signaler une mauvaise conduite, le joueur peut envoyer les séquences filmées aux modérateurs humains pour être évaluées. Pour Bosworth, à bien des égards, ce système est «meilleur» que dans la vie réelle en termes de sécurité, car il y aura toujours un enregistrement à vérifier.»

Mais selon un employé anonyme de Facebook dans The Information: «Il est difficile de recueillir des preuves d’abus pour déposer une plainte, car il n’y a pas assez de mémoire pour stocker un gros fichier vidéo sur l’appareil». Certains joueurs ont eu recours à leur téléphone, en glissant l’appareil entre leur visage et le casque, pour tenter d’enregistrer les débordements pendant qu’elles se produisent.

Dans le métavers, ce n’est pas le contenu qui doit être modéré, mais les comportements. Suivre des milliards d’interactions en temps réel sera une tâche colossale, voire impossible.

Je crois que nous partageons tous l’inquiétude de John Egan, PDG de l’Atelier BNP Paribas exprimée ainsi: «Si Facebook n’a pas été capable de modérer sa plateforme existante, comment pourra-t-il modérer un univers bien plus complexe et dynamique?».

 

Sources : Financial Times / MIT Technology Review / The Information

Emily Turrettini

De nationalité américaine et suisse, Emily Turrettini publie une revue de presse sur l'actualité Internet depuis 1996 et se passionne pour les nouvelles tendances.

3 réponses à “Comment Mark Zuckerberg va-t-il assurer la sécurité de son métavers?

Les commentaires sont clos.