La reconnaissance des émotions par l’IA serait-elle peu fiable?

Les algorithmes conçus pour identifier les émotions en se basant sur les expressions faciales se popularisent mais ne font pas l’unanimité.

C’est une industrie en plein essor évaluée à plusieurs milliards de dollars qui se déploie dans une multitude de secteurs: De l’évaluation des candidats à l’emploi, aux études marketing, aux contrôles de sécurité dans les aéroports.

Certaines applications sont étonnantes, comme celle installée dans des salles de classe en Chine pour évaluer le niveau d’attention des étudiants. Ou celle destinée aux douaniers pour signaler une personne suspecte – mais de quoi? Ou encore, celle qui analyse l’état émotionnel d’un conducteur – dans la sphère privée de son propre véhicule!

Comme d’autres formes de reconnaissance faciale, les préjugés sont inhérents à ces logiciels et ils supposent au départ que nos expressions traduisent nos sentiments intérieurs. Mais l’intelligence artificielle ignore le contexte; nous pleurons aux enterrements, mais aussi aux mariages. Elle ignore les différences de cultures; un japonais par exemple peut-être mécontent mais sourire par politesse. Le système nous lit avec une simplification excessive, comme si nos visages étaient de simples émojis.

Pour toutes ces raisons, la reconnaissance des émotions par l’IA aujourd’hui soulève de nombreuses questions et n’est pas aussi fiable que les entreprises technologiques voudraient le faire croire. Elle a même était qualifiée de «Junk science» ou science de pacotille par des psychologues, suite à une étude sur cette méthode pour determiner l’innocence ou la culpabilité d’accusés lors de leurs procès.

Alors des scientifiques ont créé des jeux en ligne pour nous permettre de mieux comprendre comment cela fonctionne et participer au débat.

Sur le site web emojify.info il est possible de tester les systèmes de reconnaissance des six émotions de base (la joie, la tristesse, la peur, la surprise, le dégoût et la colère) à l’aide de la caméras de son propre ordinateur. Une fois son visage affiché sur son écran, il s’agit de simuler une émotion. Pour ma part, j’ai dû vraiment forcer le trait pour que le système identifie mon visage en colère, qu’il a confondu avec la surprise, illustrant comment un sentiment peut être mal interprété par une machine. Une deuxième jeu fait défiler des photos et il faut déterminer si la personne fait un clin d’œil ou cligne des yeux. On ne s’y trompe pas mais l’exercice sert à démontrer que l’IA ne sait pas faire la différence.

Pour le Dr Alexa Hagerty, chef de projet dans le centre de recherche sur les risques de l’IA de l’Université de Cambridge: «Nous commençons à réaliser que nous sommes des citoyens dans un monde profondément façonné par la technologie. Nous devons délibérer de manière démocratique et citoyenne sur l’usage qui en est fait».

Sources : The Guardian

 

Emily Turrettini

Emily Turrettini

De nationalité américaine et suisse, Emily Turrettini publie une revue de presse sur l'actualité Internet depuis 1996 et se passionne pour les nouvelles tendances.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *