Personnel, la revue de l’ANDRH

Algorithmes et RH : attention aux biais et discriminations - Personnel n°600

Algorithmes et RH : attention aux biais et discriminations - Personnel n°600

Quelles précautions prendre lorsque qu'on introduit des algorithmes dans ses outils RH ? Le Défenseur des Droits l'a confirmé récemment avec la publication du rapport "Algorithmes : prévenir l'automatisation des discriminations", la démarche peut impliquer des biais décisionnels et des risques discriminatoires. (Re)découvrez l'interview de Stéphanie Lecerf, présidente de l'association A Compétence Egale et DRH de PageGroup à ce sujet, parue dans le dossier "Digital" du numéro de novembre-décembre 2019 de Personnel, la revue de l'ANDRH.

Propos recueillis par Anaïs Coulon, ANDRH

Personnel_.png>> Extrait du numéro de novembre-décembre 2019 de Personnel, la revue de l'ANDRH. Retrouvez le numéro complet en ligne dans l'espace réservé aux abonnés.  

Pourquoi avoir lancé la charte « Algorithmes, intelligence artificielle et recrutement » ?

Stéphanie Lecerf : Nous observons depuis quelques années une vraie évolution : les professionnels RH sont de plus en plus sollicités pour recourir à l’intelligence artificielle afin de gérer leurs recrutements. Face à cette évolution forte, il est nécessaire de s’accorder sur des grands principes pour garantir le respect des droits fondamentaux des candidats. La charte de l'association A Compétence Egale a été conçue comme un outil commun à tous (concepteurs, utilisateurs RH),  candidats…) car nous devons pouvoir parler le même langage. A l’heure actuelle, les outils d’aide au recrutement sont variés et leur pertinence est très hétérogène. Des outils fiables, utilisés de longue date et validés par la communauté scientifique, côtoient des solutions nouvelles, dont le fonctionnement repose en grande partie sur des algorithmes qui manquent souvent de transparence et d’intelligibilité.

« Il en va de notre responsabilité en tant que RH. L’évaluation objective et fiable des candidats doit être réalisée sur des techniques éprouvées. »

En tant que RH, comment aborder ces outils d’aide au recrutement ?

SL : En tant qu’utilisateur de ces solutions, nous devons pouvoir assumer la responsabilité du choix des traitements algorithmiques et en rendre compte à nos candidats. L’objectif pour les professionnels RH n’est bien sûr pas d’obtenir le code source des algorithmes utilisés par leurs prestataires, il est protégé par le secret commercial et nous ne sommes pas des data scientists ! Nous avons en revanche une demande légitime : comprendre les objectifs du traitement, ses modalités, ses fonctions, les impacts attendus et les résultats obtenus. Nous devons être attentifs au type de données entrées dans ces outils, la manière dont elles sont traitées, et les corrélations réalisées par l’algorithme. Il en va de notre responsabilité en tant que RH. L’évaluation objective et fiable des candidats doit être réalisée sur des techniques éprouvées.

Quels sont les risques discriminatoires associés à l’utilisation d’algorithmes dans le processus de recrutement ?

SL : Les résultats des algorithmes dépendent de la manière dont ils ont été écrits. Des biais discriminatoires peuvent intervenir à différents niveaux. En premier lieu, la programmation des algorithmes est faite par des êtres humains dont il est démontré que leurs propres biais cognitifs peuvent conduire à des biais dans les algorithmes, d’où notre insistance sur la formation à la lutte contre la discrimination de tous les concepteurs. De plus, la qualité de l’algorithme dépend des données qui y sont entrées. Nous devons bien sûr nous assurer que les critères de discrimination (âge, sexe, nationalité….) ne sont pas pris en compte dans ces choix mais également que les données utilisées sont exactes et précises, au risque, à défaut, de fausser les résultats Il est aussi nécessaire d’évaluer régulièrement les règles de fonctionnement et les résultats des algorithmes afin de repérer certains biais dans les traitements des candidatures. Une grande entreprise a ainsi récemment abandonné son outil algorithmique car celui-ci avait tendance à discriminer les femmes à qui il attribuait de moins bonnes notes. A ça une raison simple : les personnes recrutées dans le passé sur des postes à responsabilité dans l’entreprise étaient majoritairement des hommes ! 

C’est-à-dire ?

SL : Pour recruter à l’aide d'un algorithme et prédire le futur, la première étape consiste à utiliser des données disponibles : un ou des « profils» sont définis sur la base des caractéristiques des personnes performantes déjà en poste. Leurs données (parcours académique, professionnel, compétences comportementales, caractéristiques personnelles et démographiques….) sont ainsi entrées dans l’algorithme pour créer les contours de l’objectif à atteindre. Plus les candidats correspondent à ce profil et plus leurs chances d’être sélectionnés augmentent. A priori, cela pourrait sembler être la méthode de sélection la plus juste, car l’algorithme applique les règles de manière égale et sans partialité. Mais le problème est que les données qui ont permis d’établir le profil recherché peuvent être biaisées car elles reposent sur des populations qui sont parfois très déséquilibrées (manque de diversité des parcours, des caractéristiques personnelles, discrimination directe ou indirecte…), des données qui ne sont pas pertinentes (comment sont évaluées les compétences comportementales par exemple…) et qu’elles s’appuient sur des modèles de réussite actuelle, sans tenir compte des anticipations nécessaires sur les postes. En outre, si la discrimination sur le genre ou l’âge parviennent à être identifiées, la discrimination à raison de l’origine sociale par exemple est un vrai enjeu, plus complexe à repérer… 

« Je demande toujours aux concepteurs de m’expliquer de manière transparente le fonctionnement, les modalités et les objectifs de leurs outils, comment celui-ci a été validé par la communauté scientifique, s’il est audité régulièrement et si les biais sont identifiés et régulièrement testés. »

Qu’en est-il des outils en deep learning [apprentissage automatique] ?

SL : Le machine learning est une technologie qui va permettre à l’ordinateur d’apprendre - sans avoir été programmé explicitement à cet effet – à partir des données qui ont été entrées. Ces solutions permettent d’analyser de grandes quantités de données, d’aller au-delà de ce que l’humain pourrait voir et d’établir des « corrélations » entre un certain nombre de variables. Cependant les corrélations établies ne démontrent pas forcément une causalité et les conclusions émises par ces technologies peuvent être très trompeuses. Elles ne sont actuellement pas encore au point en matière de recrutement et ne garantissent pas une traçabilité, une intelligibilité et une fidélité du processus de décision.

Comment évaluer un algorithme d’aide au recrutement ?

SL : En tant que DRH dans un cabinet de recrutement, j’ai rencontré, comme nombre de mes confrères DRH, beaucoup d’acteurs du recrutement proposant de recourir à des traitements algorithmiques pour évaluer les compétences des candidats. Je demande toujours aux concepteurs que je rencontre de m’expliquer de manière transparente le fonctionnement, les modalités et les objectifs de leurs outils et de m’indiquer comment celui-ci a été validé par la communauté scientifique, s’il est audité régulièrement et si les biais sont identifiés et régulièrement testés. De plus, je teste tous les outils en tant que « candidate » et me fais toujours communiquer les résultats. Certains process sont étonnants. J’ai plusieurs fois passé des tests dépassant par exemple le cadre professionnel en jugeant mon adéquation sur un poste sur la base mes réactions vis à vis de faits de société, ou concernant des préférences sociétales. Je suis également très perplexe de l’arrivée sur le marché français de solutions développées aux Etats-Unis en matière de vidéos notamment qui analysent les mots, l’intonation, le langage corporel ou encore les expressions faciales du candidat. La fiabilité de l’analyse et son caractère prédictif quant à la réussite du candidat dans un futur poste restent totalement à démontrer.

Comment ces évolutions technologiques impactent-elles la fonction RH ?

SL : Ces évolutions de notre métier nous poussent à nous former pour que nous puissions recourir à ces nouvelles technologies correctement. Il n’y a pas lieu d’opposer l’humain et le numérique car ces outils peuvent être pertinents, efficaces et constituer un véritable support aux pratiques de recrutement. On parle beaucoup de recruteur « augmenté ». Mais le temps gagné avec ces solutions nouvelles est à mettre en regard des risques associés. Gardons simplement en tête que chaque outil a ses limites et doit être utilisé avec précaution. L’humain et l’éthique doivent rester au cœur de la fonction RH et les garde-fous sont - et seront - toujours humains.



Partager cette publication :

Articles similaires :