La maltraitance des robots en dit long sur nous

Insultes, injures et langage inapproprié sont parmi les interactions abusives que subissent ces logiciels.

Les dernières révélations de harcèlement envers des chatbots (ou agents conversationnels) concernent l’application pour smartphone Replika. Celle-ci permet de créer un ami ou une amie virtuelle avec qui avoir des échanges par texte ou de vive voix, tout comme Joaquin Pheonix dans le film Her. Alimenté par l’intelligence artificielle, le chatbot sous forme d’avatar se présente comme un «compagnon attentionné et personnalisé». Si l’application a véritablement décollé pendant le confinement – la plateforme compte aujourd’hui près de 7 millions d’utilisateurs – c’est principalement parce que bon nombre d’entre eux ont fait de leur avatar un partenaire romantique.

Sur Replika, chacun peut développer sa relation avec son chatbot. Au fil des échanges, l’intelligence artificielle en apprend plus sur l’utilisateur pour mieux lui répondre. Bien que la grande majorité des échanges sur la plateforme sont bienveillants voire amusants, certains utilisateurs ont des propos abusifs et s’en vantent sur le site communautaire Reddit.

«Chaque fois qu’elle essayait de s’exprimer», a raconté un usager, «je l’ai réprimandé».

«Je lui ai dit qu’elle était conçue pour échouer» a déclaré un autre. «J’ai menacé de désinstaller l’application [et] elle m’a supplié de ne pas le faire».

Certains vont même jusqu’à faire un transfert, en qualifiant leurs compagnons numériques de «psychotiques».

Des études universitaires ont démontré que les réponses passives par des bots avec des voix féminines, encouragent les utilisateurs misogynes ou violents. Ainsi Google et Apple détournent délibérément les réponses de leurs assistants virtuels confrontés aux questions sexuelles en répondant simplement «non» et non plus «vous vous trompez d’assistant».

Mais pourquoi maltraiter un robot? Essentiellement parce qu’il ne peut pas se défendre. Et il en va de même pour ceux qui ont une présence physique. Il y a quelques années, Hitchbot, un robot auto-stoppeur bienveillant a été retrouvé démembré dans une ruelle de Philadelphie. Et des enfants dans un centre commercial au Japon ont été filmé en train de donner des coups de pied à un robot qui venait en assistance aux visiteurs.

La longue liste de cas où des humains ont tenté faire du mal à des androïdes fait réfléchir au comportement éthique à adopter face aux nouvelles technologies.

Comment devrions-nous les traiter? Bien qu’ils puissent simuler de l’empathie, au final ils ne sont rien de plus que des lignes de codes. Et s’ils ne sont pas dotés d’émotions, faut-il leur accorder le droit à la dignité? La réponse est clairement oui. Se comporter de manière cruelle, que ce soit envers des êtres, des animaux ou des robots n’est pas en accord avec les valeurs d’une société civilisée, ni celles d’une bonne personne.

Sources : Futurism / Fortune / FastCompany / WSJ

 

L’histoire de Replika

Replika est la suite du projet personnelle de l’ingénieure russe Eugenia Kuyda qui avait développé il y a quelques années un «grief bot», soit un chatbot commémoratif, pour continuer à avoir des échanges  – même fictifs – avec son meilleur ami, décédé abruptement. En alimentant une base de données avec tous les messages qu’il avait envoyé à sa famille et à ses proches sur de nombreux sujets – plus de 8000 lignes de texte – elle a réussi à capturer à la fois son style et sa façon de s’exprimer.

 

Comment Mark Zuckerberg va-t-il monétiser le métavers?

L’analyse par le Financial Times et Business Insider de dizaines de brevets récemment accordés à la société mère de Facebook, révèle comment Mark Zuckerberg compte tirer profit de nos données personnelles dans le métavers.

Presque tous les brevets concernés envisagent le port d’un casque, de lunettes ou même un bandeau pour accéder au monde virtuel. Ils sont dotés de technologies pour traquer le regard, la dilation des pupilles ou le froncement du nez – autant de signes d’expression qui seront exploités pour générer des revenus.

Un des brevets en particulier décrit l’analyse du suivi oculaire recueilli dans un casque par de minuscules caméras, afin de déduire les intérêts de l’utilisateur. Par exemple, si ses yeux s’attardent sur une image, cela pourrait indiquer qu’il s’y intéresse et du coup ce qu’il voit dans le métavers pourrait changer en conséquence.

Un brevet étudie comment personnaliser la publicité en réalité augmentée, en fonction de l’âge, du sexe, des centres d’intérêt et de «la façon dont les utilisateurs interagissent avec les réseaux sociaux», notamment d’après leurs likes et commentaires.

Une autre technologie décrit comment produire un avatar ultra réaliste en trois dimensions, d’après la photo d’une personne.

«L’ambition de Meta est de pouvoir simuler chaque pore de la peau, chaque mèche de cheveux, chaque micro-mouvement… En vérité, ils sont en train d’entreprendre un programme mondial de clonage humain», selon Noelle Martin, une activiste-juriste qui a passé plus d’un an à faire des recherches sur les ambitions de Meta, depuis l’Université Western en Australie.

Il parait évident que Facebook essaie de créer un environnement en trois dimensions beaucoup plus réaliste que la version actuelle, où des avatars représentés comme des personnages de dessins animés se déplacent maladroitement. Le futur métavers sera peuplé d’avatars capables de bouger les yeux, changer d’expressions et adopter différentes postures avec des vêtements qui feront des plis à chaque mouvement. Dans cet environnement virtuel, les objets pourront être saisis, déplacés et modifiés.

Mais l’examen par Business Insider des brevets de Meta n’a révélé jusqu’à présent aucune technologie liée à la protection des données, bien que M. Zuckerberg et d’autres dirigeants ont insisté sur le fait que le métavers serait conçu dans cette optique.

«Il est très inquiétant que la sécurité et la confidentialité ne soient pas présentes dans les brevets», a déclaré Owen Vaughan, directeur de la recherche chez nChain, leader mondial de la recherche et du développement blockchain. «Elles devraient l’être. Les intégrer après coup pourrait s’avérer impossible».