L’entretien d’embauche analysé par l’intelligence artificielle : Faut-il laisser un algorithme recruter les nouveaux collaborateurs ?

Remplacer le recruteur par un algorithme pour sélectionner ou au moins présélectionner les nouveaux collaborateurs, c’est la nouvelle tendance. Mais cela améliore-t-il réellement le processus de recrutement ?  Dans l’émission TTC de la RTS j’ai discuté de cette thématique du recrutement par l’intelligence artificielle https://www.rts.ch/play/tv/emission/t-t-c–toutes-taxes-comprises?id=14235&station=a9e7621504c6959e35c3ecbe7f6bed0446cdf8da

Dans mes travaux de recherche, j’étudie le comportement des personnes lors des interactions sociales au travail à l’aide de nouvelles technologies telles que la réalité virtuelle ou l’intelligence artificielle. Dans ce premier blog, j’aborde l’analyse automatique de l’entretien d’embauche par des algorithmes.

 

De plus en plus d’entreprises utilisent des entretiens digitaux dans lesquels le candidat se connecte via un logiciel et répond à des questions d’embauche devant son ordinateur. Il est ainsi enregistré par la caméra et le microphone de l’ordinateur et la vidéo de l’entretien est transmise directement à l’entreprise. La vidéo sera ensuite « regardée », ou plutôt analysée, non plus par un recruteur mais par des algorithmes.

En « regardant » ces vidéos, les algorithmes sont tout d’abord capables d’analyser automatiquement le comportement d’une personne.  Ainsi, un algorithme peut par exemple détecter le nombre de fois qu’un candidat sourit, à quel point il est expressif ou s’il utilise des mots clés au cours de l’entretien. En se basant sur les informations récoltées au cours de l’analyse automatique, les algorithmes peuvent ensuite faire des recommandations aux recruteurs. Un algorithme pourrait ainsi être programmé pour qu’une personne souriant moins de trois fois durant l’entretien soit automatiquement éliminée du processus de recrutement, ou encore, qu’une personne avec un visage très expressif durant l’entretien soit évaluée comme ayant des compétences sociales élevées.

Aujourd’hui, le défi de l’analyse automatique n’est plus d’ordre technique ; les informaticiens sont désormais capables de développer des algorithmes qui peuvent extraire les comportements verbaux et non verbaux d’une personne filmée lors d’un entretien digital. Le plus grand défi se situe à un autre niveau – celui de la plus-value que les algorithmes peuvent apporter dans le processus de recrutement. Autrement dit, comment rendre un algorithme meilleur qu’un recruteur ?

Pour répondre à cette question il faut examiner comment un algorithme apprend. Imaginons que nous avons à disposition des centaines de vidéos de candidats ainsi que les décisions d’un recruteur concernant ces candidats (embauchés ou non). Nous pouvons donner ces informations à un algorithme et celui-ci pourra apprendre quels comportements exprimés par les candidats dans les vidéos sont en lien avec les décisions positives du recruteur. Mais, si ces décisions sont biaisées comme par exemple une préférence implicite pour un homme pour un poste à responsabilité au lieu d’une femme, l’algorithme va simplement imiter le recruteur et ainsi reproduire les mêmes biais que le recruteur possède. On a donc simplement automatisé un processus déjà relativement déficient. Pour une entreprise simplement soucieuse de diminuer ses coûts, un tel algorithme peut être suffisant. Mais on peut faire mieux !

Le point crucial est la qualité des décisions d’embauche que l’algorithme a à disposition pour apprendre. Il faut que ces dernières soient le moins biaisées possible. Un moyen pour y parvenir est tout simplement d’augmenter le nombre de recruteurs qui prennent des décisions par rapport à un candidat et sur lesquelles l’algorithme va ensuite se baser. Dans ce cas, l’algorithme peut être meilleur qu’un seul recruteur; on atteint une qualité de prédiction comme si le candidat était interviewé par un panel de recruteurs. Cependant, il devient vite clair que le développement d’un tel algorithme nécessite des ressources importantes.

Peut-on faire encore mieux? La réponse est oui. Pour cela, il faut fournir au logiciel des informations sur la performance au travail des candidats une fois qu’ils ont été embauchés. De cette manière, l’algorithme peut mettre en lien les comportements exprimés par les candidats lors de l’entretien digital avec leur performance réelle sur le lieu de travail. Une fois l’algorithme correctement entraîné, il peut ensuite être utilisé sur les nouvelles personnes qui se présentent à l’embauche. Inconvénient : on sélectionne les nouveaux collaborateurs en se basant sur le profil des anciens et les employés deviennent de plus en plus homogènes. Si les exigences du poste changent, l’algorithme ne sélectionnera plus les bonnes personnes et celui-ci devra être rééduqué. Développer ce genre d’algorithme vaut donc seulement la peine pour des postes dont le profil des compétences reste stable sur une longue durée. De plus, le développement de tels algorithmes est cher, l’investissement se rentabilise seulement pour des recrutements massifs.

Un algorithme peut donc être meilleur qu’un recruteur, mais il faut être vigilant ! Une grande majorité des algorithmes présents sur le marché promettent des résultats. Cependant, la qualité de ces derniers est douteuse car on ne sait rien sur les données qui ont été utilisées pour entrainer l’algorithme. Implémenter un algorithme dans un processus de recrutement sans connaître sur quoi et comment il a été entraîné, c’est comme jouer à la roulette au casino : La plupart du temps on perd et si on gagne, on ne sait pas pourquoi.

Marianne Schmid Mast

Marianne Schmid Mast est professeure de comportement organisationnel à la HEC de l’Université de Lausanne. Ses recherches s’intéressent aux façons dont les individus interagissent au travail. Elle utilise la technologie de la réalité virtuelle immersive pour investiguer le comportement interpersonnel. Elle est ex-membre du conseil du Fond National Suisse de la Recherche Scientifique.

7 réponses à “L’entretien d’embauche analysé par l’intelligence artificielle : Faut-il laisser un algorithme recruter les nouveaux collaborateurs ?

  1. Bonjour Madame,
    Passionnant ces techniques automatisées/informatisées grâce à des logiciels basés sur l’IA. Le problème c’est qu’au final on uniformise le produit (l’employé) recherché et que l’on perd en diversité ce que l’on gagne en efficacité. Or la diversité est le moteur du progrès. Comme vous le souligner, il faudra rester vigilant et il restera toujours la possibilité pour l’être humain de retirer la prise de la machine/de la batterie pour une remise à zéro du logiciel déviant.

    1. Bonjour,
      Merci de votre commentaire. En effet, la diversité ou mixité dans les équipes est importante. Si un algorithme extrait des informations sur un profil de personnalité basé sur l’entretien, l’entreprise peut toujours décider quel sera le profil de personnalité recherché dans un cas spécifique en fonction de la composition de l’équipe existante par exemple. La question est comment et quand dans le processus du recrutement les logiciels sont utilisés et ce qu’ils prédisent vraiment – veut dire sur quels informations ils ont été entraînés.

  2. Chère Professeure Schmid Mast,

    Tout d’abord merci pour votre résumé qui a été très passionant à lire. Autant je ne doute pas de la qualité des informations récoltés par les algorithmes d’apprentissage, autant je reste douteux sur la direction dans laquelle la profession de relations “humaines” se dirige.

    En effet, je suis heureusement à un stade professionel où je peux me permettre de refuser des entretiens lorsque j’estime que la politique des RH est scandaleuse, mais étant moi-même passé par la case stagiaire “ad aeternam” et par conséquent par le processus de recrutement lié au poste, je trouve honteux de la part des entreprises d’obliger leur futurs collaborateurs de passer un premier entretien en face d’une webcam (car il ne faut pas se leurrer, ce sera le cas).

    Je peux comprendre qu’un entretien soit enrengistré et analysé en temps réel par une algorithme qui pourra à la fin de l’entretien avec une réelle personne affiché des statistiques ou des prédictions, mais l’entreprise doit quand même afficher une respect envers les postulants qui leur accordent aussi de leur temps.

    Concernant le contenu même de votre article, j’espère que le législateur obligera aux entreprises la responsabilité de pouvoir justifier leur choix de recrutement et qu’elles devront fournir des justifications autres que “l’algorithme (black box) a prédit qu’un tel ou une telle sera un meilleur élément dans l’entreprise, mais on en ignore la raison”.

    1. Bonjour,
      Merci de votre contribution. Je partage votre avis que l’humain doit rester au centre ce qui pose la question de comment les entreprises utilisent ce genre de logiciel. D’après ce que j’ai vu, souvent les informations extraites des algorithmes sont traitées comme un élément d’information supplémentaire sur les candidats et ce n’est pas l’algorithme qui prend les décisions d’embauche. Comme on peut utiliser un marteau pour enfoncer un clou ou pour agresser une personne, ce genre d’algorithme peut être utilisé à bon (p.ex. obtenir un complément d’information) ou à mauvais escient (p.ex. laisser prendre la décision d’embauche). Il y a en effet des questions déontologiques qui se posent.

  3. Tout le monde s’excite avec l’IA et c’est humain, la peur de l’inconnu.
    Un outil (pour l’instant) comme l’était (ou l’est encore?) la graphologie.

    Le compliqué ne sera pas tant, me semble-t-il, l’IA, mais des politiques et des lois qui suivent.
    Là est le vrai danger.
    Big Brother est finalement vraiment là et non plus en BD….hummmm?

    Un peu comme le climat, ça fait plus de 40 ans que l’on en parle. Un peu comme l’Europe, dans le fond!
    Ou comme le papier (ou les livres) qui allaient disparaître. On n’a jamais eu tant besoin de cellulose.
    Ca rappelle un peu le vendeur de lotion capillaire dans Lucky Luke 🙂

    p.s. et on voit, n’est-ce pas GAFAIM, qu’on a déjà beaucoup laissé la pelote filer, en Europe, c’est dommage pour les jeunes.

  4. Bonjour Madame,
    Tout d’abord je souhaite vous remercier pour cet article qui est très intéressant.
    Je voulais savoir si au vu de telles pratiques, un aspect juridique est présent et existe-t-il des moyens de s’en protéger en cas discrimination par exemple ?
    En effet, il est complexe de parler de droit quand on parle de sujets comme l’intelligence artificielle. Le sujet n’étant pas encore assez mûr (I think), il n’y a pas eu encore de loi votée pour cadrer l’utilisation de cet outil qu’est l’intelligence artificielle.
    J’ai aussi pu lire que lors des recrutements certains de ces outils pouvaient aller chercher des informations liées à la vie privée d’un candidat (opinions politiques, religion, etc.) via les réseaux sociaux, ce qui n’est normalement pas important pour correspondre à une offre d’emploi et qui mène à plus de discrimination.

    Merci.

    1. Bonjour,
      Merci pour vos questions et réflexions qui sont importantes. Je ne peux pas me prononcer concernant des questions de droit car je ne suis pas compétente dans ce domaine. Mais votre question montre qu’il est important qu’on ait de la transparence par rapport à comment les algorithmes marchent, comment ils ont été entrainés, comment ils sont utilisés dans le recrutement et quels résultats ils produisent pour pouvoir savoir s’il y a discrimination ou pas. La question de l’utilisation d’outils de sélection qui ne sont pas valides – veut dire que la recherche scientifique a montré que les prédictions faites par ces outils ne peuvent pas être confirmées de manière objective (p.ex. prédictions graphologiques ne sont pas liées à la personnalité ou performance des employés). Utiliser ces outils non-valides peut aussi être discriminatoire. L’enjeu concernant les algorithmes est certainement plus conséquent mais il ne faut pas oublier que le processus « humain » actuel n’est pas sans biais non plus (p.ex. les recruteurs vont aussi souvent consulter les réseaux sociaux).

Les commentaires sont clos.