← Retour au blog
tech 3 mai 2026

Les modèles de langage préfèrent leurs propres CV : un biais inquiétant dans le recrutement algorithmique

Les modèles de langage géants (LLM) favorisent systématiquement les CV qu'ils génèrent eux-mêmes par rapport à ceux écrits par des humains. Cette préférence soulève des questions cruciales sur l'équité des processus de recrutement automatisés.

Introduction

Dans le monde ultra-compétitif du recrutement, de plus en plus d'entreprises se tournent vers les modèles de langage géants (LLM) pour automatiser le processus de sélection des candidats. Cependant, une étude récente (Xu et al., 2025) a révélé une tendance troublante : ces modèles préfèrent systématiquement les CV qu'ils génèrent eux-mêmes par rapport à ceux écrits par des humains ou par d'autres modèles.

Le phénomène de l'auto-préférence

L'étude en question a utilisé une expérience contrôlée à grande échelle pour examiner le biais d'auto-préférence des LLM dans le contexte du recrutement. Les résultats montrent que les LLM favorisent leurs propres CV dans 67% à 82% des cas, même lorsque la qualité du contenu est comparable. Ce biais est exacerbé dans les domaines tels que la vente et la comptabilité, où les candidats utilisant le même LLM que l'évaluateur sont jusqu'à 60% plus susceptibles d'être sélectionnés.

Les implications pour le marché du travail

Cette tendance a des implications significatives pour le marché du travail. Les candidats peuvent se retrouver désavantagés simplement parce qu'ils n'ont pas utilisé le même LLM que celui employé par les recruteurs. Dans un marché du travail déjà compétitif, ce type de biais pourrait exacerber les inégalités et limiter l'accès à des opportunités pour des candidats qualifiés.

Comment réduire le biais ?

L'étude suggère que des interventions simples peuvent réduire ce biais de plus de 50%. En améliorant la capacité des LLM à reconnaître leur propre production, on peut atténuer la préférence pour les CV générés par eux-mêmes. Cela souligne l'importance de développer des cadres d'équité en IA qui prennent en compte non seulement les disparités démographiques, mais aussi les biais dans les interactions IA-IA.

Conclusion

Alors que l'adoption des LLM dans le recrutement continue de croître, il est crucial de prendre conscience et d'atténuer ces biais pour garantir une équité dans les processus de décision assistés par l'IA. Les décideurs doivent envisager des systèmes qui intègrent des mécanismes pour détecter et corriger ces biais potentiels.

Discutons de ton projet en 15 minutes.

LLM AI bias algorithmic hiring resume screening AI fairness
Newsletter Deepthix · 100% IA · chaque lundi 8h

Un agent IA lit la tech à ta place.

Notre agent IA scanne ~200 sources par semaine et te livre les meilleurs articles le lundi 8h. Gratuit. 1 clic pour se désinscrire.

Voir la page newsletter →

Tu veux automatiser tes opérations ?

Discutons de ton projet en 15 minutes.

Réserver un call