Peut-on éviter les biais du recrutement par algorithme ?

Publié le 16 juin 2021.


S’il est crucial pour le succès d’une entreprise, le processus d’embauche est coûteux. Pour l’améliorer, les entreprises ont donc commencé à se tourner vers le recrutement par algorithme. La promesse était grande : embaucher des talents plus qualifiés, tout en réduisant le temps et les montants engagés. 

Le marché des outils de recrutement algorithmiques a récemment pris de l’ampleur, se concentrant sur l’étape de présélection. Autrement dit, celle qui consiste à évaluer les candidats, en éliminant les profils qui ne sont pas jugés pertinents pour le poste. 

Le hic est que comme pour les applications de rencontre, le processus de sélection par une intelligence artificielle (qui se voulait plus objectif que celui réalisé par un humain) s’est révélé biaisé

Alors, retour à la case départ pour l’intelligence artificielle dans le recrutement ? Nous allons tenter de répondre à cette question dans cet article !

Qu’est-ce que le recrutement par algorithme ?

En France, comme dans le reste du monde, l’embauche souffre d’une longue histoire de discrimination. Malgré un investissement plus important dans les initiatives de diversité et d’inclusion, les biais humains persistent. Souvent, ils mettent en échec les efforts entrepris, d’où l’intérêt grandissant pour le recrutement par algorithme. 

L’utilisation d’algorithmes peut intervenir à chaque étape du processus d’embauche, mais elle s’est rapidement concentrée sur l’analyse automatisée des CV. L’algorithme commence par analyser le profil du candidat. Et son aptitude à s’acquitter de la mission qui lui sera confiée s’il est embauché. Pour effectuer cette évaluation, il pourra, par exemple, lui attribuer un score plus élevé en fonction de la présence de mots-clés spécifiques sur son CV. Ces mots-clés ne sont d’ailleurs pas choisis par le recruteur, mais via l’apprentissage automatique propre à l’IA. 

Or, c’est précisément là que le bât blesse. 

Le système d’apprentissage automatique a besoin d’une certaine quantité de données passées pour apprendre. Il peut ainsi se baser sur les CV des employés actuels et les données de leurs performances au travail. A partir de ces données, l’Intelligence Artificielle identifie ensuite les mots clés que les employés jugés comme les plus performants utilisent dans leur curriculum vitae. 

Sur cette base, le système d’apprentissage automatique peut produire un ensemble de règles (communément appelées «modèle» ou «algorithme») pour prédire la qualité d’une candidature. Et donc disqualifier celles qui ne remplissent pas les critères pré-établis du recrutement par algorithme. 

 

Le recrutement algorithmique réduit-il réellement les biais humains ?

À la surface, le recrutement par algorithme représente donc une alternative attrayante aux évaluations humaines biaisées. Cependant, les preuves de ses propres biais commencent à s’accumuler

Notamment parce que ce sont les employeurs qui choisissent les données sur la base desquelles l’Intelligence Artificielle sélectionne les futurs profils. C’est donc la définition humaine de ce qui est considéré comme un employé qui fait foi. Ce qui perpétue de facto (et parfois même exacerbe) les discriminations à l’embauche !

Cette vision biaisée de la performance peut également conduire à diffuser les offres d’emploi d’une manière qui renforce les stéréotypes (notamment de genre et de race). Une récente étude menée par la Northeastern University et l’USC a ainsi constaté que les posts concernant le recrutement de caissiers de supermarché sur Facebook étaient montrés à un public composé à 85 % de femmes. Tandis que les emplois dans les sociétés de taxi l’étaient à environ 75 % aux profils afro-américains.  

L’opacité dans laquelle sont développés les outils de recrutement par algorithme inquiètent également les spécialistes. Dans la pratique, on sait en effet peu de choses sur la conception, la validation et l’utilisation des systèmes de filtrage. En partie parce que ces derniers (et les données privées utilisées pour les produire) sont généralement la propriété des entreprises.

 

Cas d’usage : le recrutement par algorithme d’Amazon qui n’aimait pas les femmes

Il faut donc souvent attendre les résultats d’études externes pour détricoter les biais des outils de recrutement par algorithme. Des chercheurs de Harvard se sont récemment penchés sur ceux utilisés par le job board Task Rabbit. L’enquête, menée sur près de 1 080 recrutements a montré que même en utilisant des algorithmes de classement équitables (comme FairDet-Greedy), les discriminations persistent. En particulier dans les contextes d’embauche où les employeurs ont une préférence pour un genre en particulier. 

L’illustration la plus emblématique des biais de l’IA dans le recrutement est certainement celle de l’outil d’apprentissage automatique d’Amazon. AMZN.O fonctionnait comme un système de notation des candidatures sous la forme d’étoiles, un peu comme les produits vendus sur la plateforme. 

En 2015, le géant de l’e-commerce a cependant dû admettre que son recrutement par algorithme évaluait les candidats aux postes de développeurs de manière sexiste. Les modèles informatiques d’Amazon avaient été conçus pour noter les candidats en observant les modèles dans les CV soumis à l’entreprise sur une période de 10 ans. La plupart venant d’hommes, la domination masculine dans le secteur de la technologie n’a fait que se perpétrer. 

 

Le recrutement algorithmique : solution ou problème ?

L’embauche algorithmique est donc porteuse de belles promesses. Mais si rien n’est fait pour que les algorithmes ne perpétuent pas les mêmes préjugés et discriminations présents dans les processus existants, ils ne feront que répéter les mêmes erreurs. Et peuvent même potentiellement les aggraver. 

Toutes ces initiatives de recrutement par algorithme ont donc le mérite d’essayer d’aller dans la bonne direction. Mais comme le dit le dicton, l’enfer est pavé de bonne intention

Leur succès variera ainsi en fonction des efforts entrepris par les recruteurs pour questionner et challenger leurs propres biais. La stratégie qui consiste à prendre le train en marche sans se poser de question n’est donc pas une option pour les entreprises qui se veulent réellement inclusives

A mesure que le recrutement algorithmique attire l’attention (une attention qui n’est pas toujours positive, d’ailleurs), les principaux fournisseurs de ces outils s’activent à trouver des solutions. C’est le cas par exemple de la société Pymetrics. Cette dernière propose désormais des systèmes d’évaluation basés sur la gamification. Les algorithmes analysent ainsi le gameplay des candidats dans des situations données pour évaluer leurs compétences. Et en particulier leur capacité d’apprentissage, de décision ou de résolution des problèmes. 

Une méthode plus ludique, mais aussi plus éthique de recruter grâce aux algorithmes ! 

A voir également

L’EDHEC reçoit le Trophée « Créateurs de Liens avec les entreprises »  par Agires Synergie
Actualités
- 27-07-2021
Des Trophées qui évaluent le lien entre établissements d’enseignement supérieur et...
Classement SIGEM 2021 : L’EDHEC confirme sa place de 4ème école de management en France
Actualités
- 26-07-2021
Avec 7200 candidats, l'EDHEC a, cette année encore, été fortement plébiscitée par les...
MIYE, la start-up qui veut révolutionner le bien-être féminin
Actualités
- 22-07-2021
Avec MiYé , Caroline de Blignières (MSc EDHEC 2005) et Anna Oualid (CELSA, 2005)...
PGE de l’EDHEC : une spécialisation progressive
Actualités
- 21-07-2021
QUEL EST VOTRE PARCOURS AVANT L’EDHEC BUSINESS SCHOOL ? Je suis issue d’une prépa’ PSI...