L’intelligence artificielle est partout, y compris dans le recrutement. Algorithmes de matching, scoring automatique des CV, chatbots de préqualification… les outils basés sur cette technologie envahissent le marché, et promettent un recrutement plus rapide, plus efficace, et même plus juste.
Mais peut-on vraiment leur faire confiance ? L’IA est-elle un remède contre les biais de recrutement ou, au contraire, une machine à discrimination à grande échelle ? C’est la question (épineuse) que nous nous sommes posée dans cet article.
Le “talent hacking” applique en effet les mêmes principes d’agilité, de créativité et de technologie que le growth hacking, mais les met au service du recrutement pour dénicher les meilleurs talents plutôt que des clients.
Alors à quoi correspond-il exactement ? Quelles sont ces techniques novatrices qui viennent bousculer le monde du recrutement ? On vous dit tout dans cet article.
Sommaire :
L’IA, une technologie biaisée par nature ?
Des dérapages algorithmiques qui en disent long
En 2016, le chatbot Tay de Microsoft, à peine lancé, partait en vrille sur Twitter : propos négationnistes, apologie d’Hitler… ses créateurs n’eurent d’autre choix que de le débrancher après seulement 24h.
Un an plus tard, ce fut le tour d’une autre IA, nommée GloVe, de reproduire de graves stéréotypes : ce programme d’analyse de texte, utilisé notamment pour faire de la traduction, associait systématiquement les prénoms féminins à la famille, et ceux des hommes à la carrière professionnelle…
Si ces dérapages sont inquiétants, ils le sont encore plus lorsqu’il s’agit d’embaucher des candidats. Et malheureusement, les premiers ratés dans le recrutement ne se sont pas fait attendre : en 2014, par exemple, un algorithme secret développé par Amazon a dû être abandonné trois ans plus tard… car il discriminait systématiquement les femmes.
Un apprentissage basé sur un simple effet de miroir
Alors pourquoi certaines IA, qu’on nous présente comme le progrès absolu, finissent-elles parfois par reproduire les discours de Tonton Fernand après 3 verres de vin rouge? Pour le comprendre il faut se pencher sur le mode de fonctionnement de ces technologies.
Contrairement à ce que l’on pourrait croire, lorsqu’une machine gagne aux échecs ou compose de la musique classique, elle ne fait pas preuve de réflexion au sens humain du terme. Son fonctionnement repose sur un principe simple : tester, échouer, ajuster.
Imaginez un singe devant un piano, recevant une décharge électrique à chaque fausse note. À force d’erreurs (et de décharges – rassurez-vous, aucun singe n’a été maltraité dans cette analogie), il pourrait finir par jouer du Chopin. Mais cela ne signifie pas qu’il comprend la musique : il a simplement appris à éviter les mauvaises touches.
L’IA fonctionne de la même manière. Elle ajuste ses réponses au fil des essais, mais sans véritable compréhension. C’est un processus d’optimisation, pas de raisonnement.
C’est d’ailleurs pourquoi certains scientifiques préfèrent parler d’ »apprentissage récursif » plutôt que d’ »intelligence artificielle », une expression jugée trompeuse.
Essayez-nous gratuitement
Des bases de données biaisées
Pour apprendre, les IA ont donc besoin de distinguer les erreurs (les fausses notes) des “bonnes” informations. Et pour cela, elles analysent de gigantesques bases de données. Le problème ? Ces bases de données ne sont elles-mêmes pas toujours neutres.
Reprenons l’exemple de Tay, l’IA de Microsoft. Si elle est devenue raciste et antisémite en un temps record, ce n’est pas par une quelconque volonté propre, mais parce qu’elle a été nourrie aux messages postés sur Twitter. Plus un discours était repris et commenté, plus elle le considérait comme une référence valide. Or, sur Internet, on le sait, les idées les plus extrêmes sont souvent les plus bruyantes… Résultat : en quelques heures, Tay a assimilé et reproduit les pires dérives du web.
Maintenant, transposez ça au recrutement. Si une IA est entraînée sur des CV issus d’un marché du travail historiquement inégalitaire, elle risque de favoriser les profils qui ressemblent à ceux déjà en poste… et d’exclure les autres. Plutôt qu’un outil neutre et objectif, elle devient alors un filtre invisible qui perpétue les discriminations existantes.
Ce qu’il faut finalement retenir, c’est que l’IA n’est pas discriminatoire par nature : tout dépend des données sur lesquelles elle est entraînée. Si elles sont biaisées, l’algorithme reproduira ces biais. Mais si elles sont totalement neutres, la technologie peut, au contraire, favoriser l’inclusion.
L’IA en recrutement : entre promesses et dangers
Peut-on créer une IA “éthique” pour le recrutement ?
Loin d’être une solution miracle, l’IA reproduit ni plus ni moins que ce qu’on veut bien lui apprendre. Son impact dépend donc des choix faits en amont : quelles données sont utilisées pour l’entraîner, quels biais sont corrigés, quelles règles sont imposées…
Une chose est sûre : sans garde-fous, elle risque de perpétuer, voire d’aggraver, les inégalités existantes.
Heureusement, certaines entreprises l’ont bien compris et commencent à encadrer ces outils avec des audits réguliers et des bases d’entraînement plus diversifiées, afin de limiter les biais et garantir une sélection plus équitable.
La réglementation évolue aussi, pour mieux contrôler l’usage de l’IA, notamment en recrutement, et imposer plus de transparence sur les critères de sélection. L’IA Act est notamment entré en application en Europe le 2 février 2025, et la France a très récemment créé l’INESIA (Institut national pour l’évaluation et la sécurité de l’intelligence artificielle). Il est donc fort probable que des règles soient édictées dans les prochaines années.
L’approche Tool4staffing : IA et humain, un duo indispensable
Chez Tool4staffing nous croyons très fort dans le potentiel de l’IA en recrutement, mais nous sélectionnons nos outils avec le plus grand soin.
Nous avons par exemple fait le choix de miser sur l’IA sémantique et non sur l’IA prédictive pour des raisons éthiques, car nous savons que cette dernière a tendance à reproduire les biais du passé plutôt qu’à élargir le champ des possibles.
Plus généralement, notre solution est conçue pour automatiser les tâches chronophages et offrir une aide précieuse à la décision, sans jamais remplacer le jugement humain. Résultat : un gain de temps considérable, une base de candidats mieux qualifiée, et surtout, une sélection qui reste entre les mains des recruteurs.
C’est pour nous un engagement fort, dans un domaine où la discrimination est, on le sait, encore très présente.
Essayez-nous gratuitement