Plusieurs recours en justice mettent en lumière les limites de la numérisation des processus de recrutement à l’ère de l’essor de l’intelligence artificielle.
Vous envoyez des dizaines de candidatures. Vous attendez. Rien ne revient. Vous supposez que votre CV s’est noyé dans la masse. Mais si, en réalité, aucun regard humain ne l’avait jamais parcouru ? Et si, bien avant qu’un recruteur n’ouvre votre dossier, un algorithme avait déjà statué — en silence — sur la base de données que vous n’avez jamais consenti à partager ?
C’est ce que met en lumière une plainte collective déposée en janvier contre Eightfold AI, l’une des principales plateformes de recrutement assisté par intelligence artificielle, dont les outils sont utilisés par des groupes tels que Microsoft ou PayPal.
Deux chercheuses d’emploi – Erin Kistler et Sruti Bhaumik – confrontées à une série de refus sans explication, ont en effet fini par identifier la barrière invisible qu’elles disaient ressentir. Leur plainte vient ainsi fissurer l’univers opaque du recrutement automatisé.
Eightfold AI aurait attribué à chaque candidat, à leur insu, un « match score » — une note de zéro à cinq — généré automatiquement à partir d’un profil numérique assemblé sans l’accord des personnes concernées.
Un score de zéro à cinq pour décider de votre avenir
Ce score, selon la plainte, déterminait qui accédait à un entretien et qui voyait sa candidature basculer directement à la corbeille numérique. Les données mobilisées pour construire ces profils auraient été collectées de manière extensive.
Cela inclurait notamment les réseaux sociaux, les données de localisation, l’activité en ligne, jusqu’aux cookies de navigation. Un véritable « shadow profile » — profil fantôme — constitué à l’insu des candidats, sans lien direct avec leur recherche d’emploi.
Les plaignantes affirment qu’en agissant ainsi, Eightfold AI s’est comporté comme une agence de vérification de consommateurs non agréée, ce qui pourrait avoir de lourdes conséquences juridiques. Alors que l’entreprise nie tout manquement, une autre procédure, plus ancienne, illustre également les dérives du recrutement algorithmique.
Dans le collimateur de plus 14 000 plaignants, figure Workday, l’un des plus grands éditeurs de logiciels de gestion des ressources humaines au monde, dont les outils sont adoptés par 65 % des entreprises du Fortune 500.
Une machine à blanchir les discriminations
« Ces outils d’IA pratiquent le web scraping — le moissonnage de données — pour affiner le profil des candidats. Ils connaissent votre code postal, votre date de naissance, votre université… », explique dans Le Monde l’avocat de Derek Mobley, l’un des premiers plaignants, à propos de l’outil HireScore de la société.
Rapide, présenté comme objectif et aisément déployable, cet instrument s’est imposé comme un filtre invisible entre candidats et recruteurs. Il n’en perpétue pas moins des biais discriminatoires fondés sur la couleur de peau ou l’âge.
D’après David Gerard, journaliste spécialisé dans l’IA et auteur de la newsletter Pivot to AI, l’entreprise (Workday) vend un « bias laundry », une machine à blanchir les discriminations, dont les mécanismes reproduisent les préjugés historiques du monde du travail.
« Ces outils sont censés éclairer les décisions, non les remplacer », rappelle Kristen Duckett, directrice des ressources humaines chez World Strides, entreprise spécialisée dans les programmes éducatifs. À ses yeux, former les recruteurs à exercer leur discernement face aux recommandations d’une IA relève non pas d’un choix, mais d’un impératif éthique et de gouvernance.
