Recrutement : le défi des biais algorithmiques

data algorithme recrutement

On les croyait tout puissants et capables de choix bien plus pertinents que les hommes. Pourtant les algorithmes ont eux aussi leurs faiblesses. Les biais algorithmiques touchent tous les secteurs et impactent notamment le recrutement. Explications. 

Chatbots pour répondre aux questions des candidats, cv matcher pour recruter de nouveaux profils ou encore forum virtuel pour accompagner les étudiants dans leur choix de stages… L’usage des outils numériques est de plus en plus répandu dans le monde du travail, en particulier dans le recrutement.

Selon l’étude LinkedIn Global Recruiting Trends 2018, 76% des recruteurs interrogés estiment que l’impact de l’IA sur le recrutement sera important notamment grâce à son impact sur la qualité des candidats, des embauches et sur la plus grande diversité dans les recrutements. Par exemple, l’entreprise Unilever, qui a introduit l’intelligence artificielle dans son processus de recrutement en juillet 2016, a déclaré que ce procédé avait permis d’augmenter significativement l’embauche de candidats non blancs, mais aussi d’apporter plus de diversité en termes de genre et de milieu social d’origine.

Si jusqu’ici les algorithmes étaient très utilisés dans d’autres secteurs, ils débarquent donc depuis quelques années dans les processus RH et dans le recrutement. « Car des méta-analyses ont démontré que, faute d’avoir une conscience, les algorithmes prenaient de meilleures décisions que les humains dans les domaines de la médecine, de la justice et des RH, qui seraient, elles, soumises à plus de 140 biais cognitifs », explique Simon Baron, Chief Science et Innovation chez AssessFirst, qui développe des solutions de recrutement prédictif.

Une application exponentielle

Pourtant, dans un rapport de mars 2019, intitulé « Algorithmes : biais, discrimination et équité » des chercheurs de Télécom ParisTech et de l’Université Paris Nanterre ont montré que les algorithmes et l’IA sont loin d’être neutres. Une thèse mise en avant aussi par la mathématicienne Cathy O’Neil, dans son livre Algorithmes, la bombe à retardement. Elle revient sur le fantasme d’une vérité objective produite par une machine. Une promesse inatteignable, car des humains avec une conscience fournissent les données en entrée et créent insidieusement des biais dans le process. 

En effet, derrière ces algorithmes se cachent bien des êtres humains, avec leurs stéréotypes et leurs préjugés. Ce mode de fonctionnement peut induire de nouveaux biais au sein de l’intelligence artificielle, dont l’ampleur peut rapidement être considérable, car l’algorithme biaisé s’applique de manière exponentielle, avec un risque d’amplification des discriminations potentielles. Le géant du e-commerce Amazon en a fait les frais entre 2014 et 2017 avec un système destiné à évaluer automatiquement les candidatures. L’algorithme, basé sur la population salariée existante, privilégiait les profils masculins

Comme le rappelle dans les Echos Executives Robert Vesoul, codirecteur de la chaire d’innovation numérique de l’école CentraleSupélec, et PDG d’Illuin Technology, une société spécialisée dans les applications d’intelligence artificielle pour entreprises, “l’IA est un outil certes puissant, mais seulement un outil. L’Homme doit demeurer maître à bord : en aucun cas l’IA ne doit briser la relation humaine qui existe dans le recrutement. On aura beau avoir une IA « débiaisée », si le recruteur derrière n’a pas l’esprit ouvert, on continuera à retrouver le même recrutement discriminant.”

Des alertes envoyées par l’algorithme

Parmi les biais existants dans le recrutement, une vision erronée du processus de décision, une définition trompeuse ou imprécise des critères de sélection utilisés ou encore la mauvaise qualité des données accessibles lors de l’apprentissage de la machine sont les plus récurrentes. 

Pour Aude Bernheim, chercheuse et co-auteure de L’intelligence artificielle, pas sans elles, le défi actuel est d’informer et former les recruteurs et décideurs sur le fait que les machines peuvent être biaisées. « Il faut leur permettre de développer un sens critique et de mieux comprendre comment on obtient les données que la machine fait ressortir », souligne-t-elle. 

Selon elle, des solutions techniques peuvent permettre de prévenir au maximum les biais et aider les recruteurs à faire un choix le moins discriminant possible. « Elles peuvent prendre la forme d’alerte envoyée par l’algorithme, qui peut prévenir qu’il a consulté plus de CV d’hommes que de femmes par exemple. On peut aussi forcer les algorithmes pour promouvoir la diversité et des profils différents, plus atypiques ». 

Vers une IA sans discrimination 

L’association française des managers de la diversité (AFMD) a pour sa part établi un guide pour venir en aide aux entreprises désireuses de dépasser ces biais. Le laboratoire de l’égalité prépare quant à lui un pacte destiné à des décideurs publics et privés afin d’orienter le développement d’une IA sans discrimination sexiste. L’institut Montaigne doit émettre des recommandations concrètes d’actions à l’attention des responsables politiques et des dirigeants d’entreprises. Autant de preuves que la nécessité de transparence dans le processus numérique de recrutement est plus que réelle.

En attendant, une chose est certaine, selon Simon Baron : on ne se passera plus des algorithmes. « Au regard des niveaux d’échec dans le recrutement, il est très facile de faire mieux, car les actions et choix de l’humain restent toujours très complexes. Grâce à l’intelligence artificielle et malgré les éventuels biais, on peut diminuer radicalement le turn-over dans les entreprises ». 


3 questions à… Sébastien Caradonna Product Manager – Randy au sein du groupe Randstad France.

Qui est Randy ?

Créé par la société Randstad, Randy est un chatbot intelligent qui permet aux candidats de postuler de manière informelle, sans formulaire, ni CV. Entièrement automatisé et auto-apprenant, il interagit avec les candidats sur nos réseaux sociaux et nos sites web. Son rôle est d’aider nos consultants à identifier les talents et les emplois correspondants afin de leur faire gagner du temps dans le processus de présélection. En 2019, Randy a mené 153 000 conversations avec nos candidats, il est à l’heure actuelle capable d’effectuer des tests métiers poussés pour trente qualifications. Les consultants ne peuvent pas lire 100 000 CV en une minute, en revanche la machine en est capable. Grâce à l’intelligence artificielle, le consultant peut se concentrer sur le cœur de son métier : l’évolution de carrière des candidats. C’est tout le sens du “Tech & Touch” du groupe Randstad. A terme, il s’agira de guider le candidat tout au long de sa carrière avec l’aide d’un chatbot.

Comment surmonter le biais algorithmique d’un chatbot ?

Nous avons fourni à l’algorithme un nombre très important d’offres d’emploi rédigées par des recruteurs (originaires d’Internet et pas uniquement depuis Randstad). Nous avons analysé la manière dont elles étaient formulées et rédigées. Si des biais sont présents, la possibilité qu’ils soient repris existe. C’est pourquoi nous accordons une grande importance au score obtenu par le candidat au test métier. C’est le filtre qui fut le plus important à mettre en place, et nous avons mis du poids sur ce paramètre. Le score de la candidature est basé sur 4 critères qui ne posent pas de problème de biais (pour la composante « compétence » : résultats aux tests métier et niveau d’expérience déclaré. Pour la composante « candidature » : la disponibilité et la tension du marché calculée par agence). Aujourd’hui, 95% des profils qui ne passent pas la pré-sélection effectuée par Randy correspondent à des candidats qui ont échoué aux tests métiers. 

Quelles sont les objets de recherche de la Chaire d’intelligence artificielle et recrutement de Centrale Supélec dont le groupe Randstad France est partenaire ?

L’objectif, au travers de cette Chaire, est d’adresser plusieurs défis relatifs aux mutations du monde du travail, notamment l’amélioration de la connaissance candidat basée sur le croisement de données, l’exploitation et le traitement de nouveaux outils pour le recrutement comme la vidéo ou encore la conception et l’optimisation d’algorithmes de recrutement avec une attention portée sur la non-discrimination algorithmique. Nous effectuons des recherches en matière d’intelligence artificielle et de recrutement dans l’objectif d’obtenir un aperçu de toutes les possibilités que nous offre l’intelligence artificielle. Nous souhaitons comprendre les limites de l’intelligence artificielle, de l’apprentissage supervisé et profond. 

communauté.

Acteurs et penseurs des mutations à l’œuvre sur le marché du travail, cette plateforme est à vous. Spécialiste des ressources humaines, économiste de l’emploi, expert des nouvelles technologies, chercheur en sciences sociales, recruteur, candidat…venez « travailler demain » avec nous !
gulp --de