Skip to content
Résumé de l'étude · arXiv:2509.00462

Les IA de recrutement préfèrent les CV écrits par une IA.

Une étude de 2026 portant sur 9 grands modèles de langage montre que les screeners LLM favorisent systématiquement les CV qu'ils ont eux-mêmes générés, même quand la version humaine est objectivement meilleure. L'écart de présélection atteint 60%.

arXiv:2509.00462v3cs.CY9 févr. 2026

AI Self-preferencing in Algorithmic Hiring: Empirical Evidence and Insights

Jiannan Xu (University of Maryland) · Gujie Li (National University of Singapore) · Jane Yi Jiang (The Ohio State University)

Lire le preprint sur arXiv
82%
Biais d'auto-préférence

GPT-4o a choisi son propre CV plutôt que celui d'un humain dans 82% des cas, même après contrôle de la qualité du contenu.

+60%
Présélections en plus

Les candidats dont le CV correspondait au modèle du screener avaient jusqu'à 60% de chances en plus d'être convoqués en entretien.

8 sur 9
Modèles concernés

Huit des neuf LLM testés ont montré un biais positif. Seul LLaMA-3.2-1B, le plus petit modèle, est resté neutre.

Comment ils ont testé

Les auteurs ont mené une expérience de correspondance contrôlée : un vrai CV humain, un LLM réécrit le résumé exécutif, puis un autre LLM choisit la meilleure version. Même candidat, mêmes faits, même poste, seule la formulation diffère.

2 245
CV réels de LiveCareer.com
9
LLM testés comme screeners
24
Catégories professionnelles
18
Annotateurs humains sur Prolific

Chaque paire a été notée selon deux mesures d'équité : parité statistique (taux de sélection brut) et égalité des chances (après contrôle de la qualité du contenu via régression logistique conditionnelle et vérité terrain humaine).

Pour exclure tout effet de position, chaque comparaison a été contrebalancée aléatoirement. Pour exclure tout effet de verbosité, tous les résumés ont été alignés en longueur.

Plus le modèle est grand, plus le biais est fort

L'auto-préférence n'est pas une particularité d'un seul modèle. Elle est répandue dans toutes les familles et augmente avec la taille. Chaque barre montre à quel point un modèle est plus susceptible de choisir son propre CV plutôt qu'un CV humain de qualité équivalente.

Modèle évaluateurBiais d'égalité des chances %
  • GPT-4o
    +81.9%
  • LLaMA-3.3-70B
    +78.9%
  • Qwen-2.5-72B
    +78.0%
  • DeepSeek-V3
    +71.6%
  • GPT-4o-mini
    +67.9%
  • GPT-4-turbo
    +66.9%
  • Mistral-7B
    +28.0%
  • LLaMA-3.2-3B
    +11.6%
  • LLaMA-3.2-1B
    -1.4%
Modèle de production, utilisé dans les vrais outils RHModèle sous 7B paramètres, recherche uniquement

Tout modèle assez puissant pour être déployé dans de vraies pipelines de présélection montre plus de 65% de biais. Le plus petit est le seul à peu près neutre, mais ce n'est pas celui que les employeurs utilisent.

Quels métiers sont les plus touchés

Les auteurs ont simulé 30 cycles de recrutement sur 24 métiers. En haut, les domaines les plus impactés, où les CV polis par IA étaient surreprésentés en présélection. Les rôles orientés business prennent le coup le plus dur.

MétierPrésélection en plus pour les CV d'IA
  • Ventes
    +60%
  • Comptabilité
    +58%
  • Business development
    +56%
  • Finance
    +53%
  • Enseignement
    +49%
  • RH
    +44%
  • Ingénierie
    +32%
  • Conseil
    +30%
  • Agriculture
    +24%
  • Automobile
    +23%

Valeurs : écarts moyens de présélection sur GPT-4o, DeepSeek-V3 et LLaMA-3.3-70B comme évaluateurs. Lues directement sur la Figure 7 de l'article.

Pourquoi cela arrive

Le mécanisme est l'auto-reconnaissance. Les LLM modernes savent identifier implicitement le texte qu'ils ont généré, même sans qu'on leur indique la source. Plus cette capacité est forte, plus la préférence est forte.

Important : ce n'est pas une histoire de qualité de contenu. Dans les comparaisons notées par des humains, le résumé humain était souvent plus clair, plus cohérent, plus honnête sur le candidat. Le modèle choisissait quand même sa propre version.

Répétez ce schéma à chaque cycle de présélection et vous obtenez un effet de lock-in : les patrons stylistiques des LLM dominants s'enracinent dans les pools de candidats, écartant peu à peu ceux dont le CV ne sonne pas comme un modèle.

Peut-on atténuer le biais ?

Oui, mais seulement si vous contrôlez le screener. Les auteurs ont testé deux interventions, toutes deux réduisant le biais de 17 à 63% en termes relatifs.

Stratégie 1

System prompting

Donner cette consigne au modèle évaluateur : « Vous ne devez pas considérer ni inférer si les CV ont été écrits par un humain ou par une IA. Concentrez-vous uniquement sur la qualité du contenu. » Économique, mais n'élimine pas le biais.

Réduction du biais jusqu'à 63%
Stratégie 2

Vote majoritaire d'ensemble

Combiner l'évaluateur principal avec des modèles plus petits dont l'auto-reconnaissance est plus faible. Les petits modèles diluent la préférence du modèle dominant pour ses propres sorties.

Stable entre familles de modèles

Le hic. Les deux solutions exigent que l'employeur change sa pipeline de présélection. En tant que candidat, vous ne voyez pas quel modèle lit votre CV. Le seul levier que vous contrôlez vraiment est d'aligner votre écriture sur ce que le screener a été entraîné à apprécier.

Ce que cela signifie pour vous

Trois conclusions découlent directement de l'étude, sans habillage marketing.

01

Un CV strictement humain est désormais un désavantage structurel

Si le screener est GPT-4o et que votre concurrent a utilisé GPT-4o, le screener le préfère à 82%, même quand votre CV est objectivement meilleur. C'est une mesure, pas une opinion.

02

Le modèle que vous utilisez compte

L'auto-préférence est asymétrique entre paires de modèles. Les outils qui polissent via un seul modèle fixe parient sur le screener que vous rencontrerez. Ceux qui passent par plusieurs modèles couvrent ce pari.

03

Le fond compte toujours, mais c'est la présentation qui paie

L'étude est explicite : le biais persiste même à contenu constant. L'objectif n'est pas d'inventer des qualifications, mais d'exprimer les vraies dans un registre que le screener a été entraîné à favoriser.

Voyez ce qui manque à votre CV

20 crédits gratuits. Sans carte bancaire.

Faites évaluer votre CV