La reconnaissance des émotions par l’IA, une pseudo-science?

Les algorithmes conçus pour identifier les émotions en se basant sur les expressions faciales se popularisent, mais ne font pas l’unanimité.

C’est une industrie en plein essor évaluée à plusieurs milliards de dollars qui se déploie dans une multitude de secteurs: De l’évaluation des candidats à l’emploi, aux études marketing, aux contrôles de sécurité dans les aéroports.

Certaines applications sont étonnantes, comme celle installée dans des salles de classe en Chine pour évaluer le niveau d’attention des étudiants. Ou celle destinée aux douaniers pour signaler une personne suspecte – mais de quoi? Ou encore, celle qui analyse l’état émotionnel d’un conducteur – dans la sphère privée de son propre véhicule!

Comme d’autres formes de reconnaissance faciale, les préjugés sont inhérents à ces logiciels et celle-ci suppose au départ que nos expressions traduisent nos sentiments intérieurs. Mais l’intelligence artificielle ignore le contexte; nous pleurons aux enterrements, mais aussi aux mariages. Elle ignore les différences de cultures; un japonais par exemple peut-être mécontent mais sourire par politesse. Le système nous lit avec une simplification excessive, comme si nos visages étaient des émojis.

Pour toutes ces raisons, la reconnaissance des émotions par l’IA aujourd’hui soulève de nombreuses questions et n’est pas aussi fiable que les entreprises technologiques voudraient le faire croire. Elle a même était qualifiée de «Junk science» ou science de pacotille par des psychologues, suite à une étude sur cette méthode pour déterminer l’innocence ou la culpabilité d’accusés lors de leurs procès.

Alors des scientifiques ont créé des jeux en ligne pour nous permettre de mieux comprendre comment cela fonctionne et participer au débat.

Sur le site web emojify.info il est possible de tester les systèmes de reconnaissance des six émotions de base (la joie, la tristesse, la peur, la surprise, le dégoût et la colère) à l’aide de la caméra de son propre ordinateur. Une fois son visage affiché sur son écran, il s’agit de simuler une émotion. Pour ma part, j’ai dû vraiment forcer le trait pour que le système identifie mon visage en colère, qu’il a confondu avec la surprise, illustrant comment un sentiment peut être mal interprété par une machine. Une deuxième jeux fait défiler des photos et il faut déterminer si la personne fait un clin d’œil ou cligne des yeux. On ne s’y trompe pas mais l’exercice sert à démontrer que l’IA ne sait pas faire la différence.

Pour le Dr Alexa Hagerty, chef de projet dans le centre de recherche sur les risques de l’IA de l’Université de Cambridge: «Nous commençons à réaliser que nous sommes des citoyens dans un monde profondément façonné par la technologie. Nous devons délibérer de manière démocratique et citoyenne sur l’usage qui en est fait».

 

Sources : The GuardianPsychological Science

 

Emily Turrettini

De nationalité américaine et suisse, Emily Turrettini publie une revue de presse sur l'actualité Internet depuis 1996 et se passionne pour les nouvelles tendances.

2 réponses à “La reconnaissance des émotions par l’IA, une pseudo-science?

  1. A quoi pourrait bien servir la reconnaissance des émotions ? Nos animaux domestiques sauront toujours mieux le faire et on pourra toujours tromper une IA très facilement puisque nous sommes capables de tromper notre entourage !
    Cette obsession de vouloir tout coder frise la paranoïa dans une société qui a perdu ses repères et qui ne fait plus confiance à personne au point que tout le monde va vivre avec un masque neutre complètement dépourvu d’émotions ou apprendre à les simuler et les dissimuler …
    Une IA ne va certainement pas améliorer cette situation , elle va au contraire la renforcer …
    La fin de l’humanité authentique …

  2. La photo qui documente cet article montre une classe de Chinois.
    L IA ne nous aidera visiblement jamais à percevoir ce que pense réellement la personne qui est filmé puisque même nous en ayant recours à des talent acquisiteurs en interne de notre entreprise n’arrivons pas à déceler ce qui a derrière ces visages et ceci malgré le fait qu’ils ont de longue expérience sur cette region.
    On utilisera encore des humains sous la forme de vrais chasseurs de tête, qui eux ont l’expérience de déceler les émotions….

Les commentaires sont clos.