"Une IA a noté mon entretien d'embauche en temps réel": le futur c'est que tu as une personne en face de toi mais une IA décide si elle t'embauche

Il existe des entretiens d'embauche qui ne sont pas évalués par une personne, mais par un système automatique. Dans certains cas, la conversation que le candidat a avec un prétendu intervieweur est enregistrée, transcrite et notée par l'intelligence artificielle qui détermine s'il passe ou non à la phase suivante. La décision de passer ou non à la phase suivante est laissée à un algorithme.

Celui qui décide n’est pas l’intervieweur, mais un logiciel. Certains rapportent même que les questions n'étaient pas pertinentes, comme parler de leurs passe-temps ou de leurs sentiments, car l'important était la façon dont ils ont répondu, pas ce qu'ils ont dit. Un candidat a déclaré sur Reddit avoir appris après un entretien que la personne à qui il parlait « n'avait pas son mot à dire » et que l'IA qui enregistrait la conversation déciderait de son avenir sur la base d'un score automatique. « Une IA a noté mon entretien d'embauche en temps réel », résume-t-il.

Ce ne sont pas des cas isolés. On connaît également le cas d’une personne qui disait avoir mené un entretien entièrement avec un chatbot, qui demandait un enregistrement vidéo et écran. Interrogé sur l'entreprise qui a interviewé, le robot a répondu « Je ne sais pas ». Le Guardian passe également en revue des cas où l'intervieweur ressemblait à Siri.

Le problème vient de loin. En 2014, Amazon a développé un système interne pour filtrer les CV grâce à l'apprentissage automatique. Elle l’a formé avec une décennie de données d’embauches passées et a fini par découvrir que l’algorithme pénalisait systématiquement les femmes. Cela a abaissé le score de celles qui avaient étudié dans des universités féminines ou qui avaient inclus le mot « femmes » sur leur curriculum vitae, comme « équipe de football féminine ». Le projet a été abandonné en 2018, lorsque l’entreprise a constaté qu’elle ne pouvait pas corriger le biais sans refaire complètement le modèle.

Biais. Les algorithmes peuvent hériter des préférences et des préjugés de ceux qui les créent ainsi que des données avec lesquelles ils sont formés. Si les équipes techniques sont majoritairement composées d'hommes, et que ce détail n'est pas pris en compte pour la formation, le modèle peut apprendre que ce profil est « l'idéal » et pénaliser automatiquement quiconque n'y correspond pas. Une étude universitaire a révélé que les modèles d’IA qui notent les entretiens avec des candidats du Royaume-Uni et de l’Inde ont tendance à attribuer des notes inférieures aux candidats de ces pays asiatiques, même en cas d’anonymisation de la nationalité.

Manque de transparence. De nombreux candidats ne savent pas qu’ils sont évalués par une IA avant la fin de l’entretien. Certains systèmes analysent les mots-clés ou les modèles de voix et de gestes, notant automatiquement sans expliquer les critères. Des outils tels que HireVue, qui analysent les microexpressions faciales, ont été critiqués pour leur opacité et le manque de preuves solides que leurs évaluations sont fiables ou équitables. Ces plaintes l'ont amené à supprimer l'analyse faciale de son logiciel.

Savoir si un processus utilise des outils automatiques est essentiel. Changez votre façon de vous préparer : il ne s'agit pas seulement de générer de l'empathie ou de faire preuve de personnalité, mais d'utiliser un langage clair et structuré qu'un algorithme peut interpréter. Le risque pour l’entreprise, en plus de risquer de mauvaises décisions, n’est pas seulement de perdre une opportunité d’emploi : c’est aussi de perdre la confiance dans l’équité du processus.

Newsletter

Rejoignez notre newsletter pour des astuces chaque semaine