Recrutement

Le recrutement actuariel

Une vaste littérature en psychologie quantitative a permis d’identifier les méthodes les plus fiables pour sélectionner les meilleurs candidats. Le recrutement actuariel est la mise en pratique de ces méthodes validées scientifiquement.

Le recrutement actuariel

Le recrutement actuariel représente aujourd’hui la forme la plus aboutie de recrutement fondé sur des preuves.

Recruter, c’est prédire

Recruter consiste par essence à formuler une prédiction sur les comportements futurs d’un candidat, en particulier sur sa performance une fois en poste. On dit plus volontiers que le recrutement vise à évaluer l’adéquation entre un candidat et un poste (le Person–Job Fit). En réalité, cette évaluation revient à prédire le niveau de performance que le candidat atteindra s’il est recruté. Autrement dit, parler de « recrutement prédictif » est un pléonasme : le recrutement est par nature prédictif.

Toute prédiction repose sur deux composantes : les données utilisées et le traitement de ces données pour arriver à une prédiction. Prenons l’exemple de la météo : pour prévoir le temps des jours à venir, on s’appuie sur des données comme la pression atmosphérique, l’humidité, la température ou la direction du vent. Ces données peuvent être traitées de manière objective – à l’aide d’un modèle statistique ou algorithmique – ou de manière subjective, par un météorologue qui s’appuie sur son expérience. Cette logique s’applique à toute prédiction : l’évolution du cours d’une action, l’espérance de vie d’un patient, le résultat d’une élection, etc.

Les deux principes du recrutement actuariel

Les deux composantes de la prédiction ont été abondamment étudiées en psychologie quantitative.

D’une part, un siècle de recherches en psychologie du travail et des organisations a permis d’identifier les informations sur les candidats les plus prédictives de la performance professionnelle [1].

D’autre part, plus de 70 ans de recherches en psychologie cognitive ont montré quelle est la meilleure façon de combiner les informations disponibles pour maximiser la qualité des décisions [2].

Le recrutement actuariel consiste à traduire ces résultats scientifiques dans la pratique de la sélection. Il repose sur deux principes fondamentaux :

Principe 1 : Evaluer les candidats avec les outils les plus prédictifs de la performance professionnelle

Il s'agit des entretiens structurés, des tests de connaissances professionnelles, et des questionnaires biographiques (et des tests psychométriques dans une moindre mesure).

Principe 2 : Sélectionner les candidats en appliquant une règle objective à leurs résultats aux outils d’évaluation

Cette règle consiste typiquement à :

  • Exprimer les scores à chaque outil sur une même échelle (par exemple, des scores standards) ;
  • Calculer la moyenne de ces scores (pondérée ou non selon l’importance relative des outils) ;
  • Sélectionner les candidats dont le score moyen dépasse un certain seuil.

Plus la décision finale s’écarte de cette règle, plus la valeur prédictive des outils utilisés est perdue.

Il est important de noter que c’est la combinaison de ces deux principes qui est gagnante.

D’un côté, utiliser des outils prédictifs ne suffit pas : encore faut-il que les données recueillies soient traitées de manière objective pour aboutir à une décision. C’est précisément ce deuxième principe qui distingue le recrutement actuariel du simple recrutement prédictif. Ce dernier repose sur l’usage de données pour prédire des indicateurs comme la performance professionnelle ou la durée en poste. Mais si ces données sont interprétées subjectivement par le recruteur (par exemple : « ce candidat a des scores globalement moyens, mais je le retiens car il a été brillant dans l’entretien »), alors leur valeur prédictive est compromise.

D’un autre côté, suivre une règle de décision objective ne suffit pas si les outils d’évaluation utilisés ne sont pas valides. Par exemple, faire passer aux candidats un entretien traditionnel, leur attribuer une note subjective, puis appliquer une règle objective (ex : recruter si le score est ≥ à 5) ne permet pas d’identifier les meilleurs candidats, car l’entretien traditionnel a une validité prédictive faible.

Les avantages du recrutement actuariel

Le recrutement actuariel présente 4 avantages clés. C’est une méthode :

1) La plus prédictive de la performance professionnelle

C’est celle qui offre le plus de chances de sélectionner les candidats qui seront les plus performants une fois en poste [1].

2) A la fois efficace et équitable

Le recrutement actuariel permet de sélectionner les meilleurs candidats tout en favorisant la diversité. En effet, les outils utilisés (entretiens structurés, tests de connaissances professionnelles, questionnaires biographiques) sont à la fois prédictifs et peu discriminants, ce qui réduit les biais sans sacrifier la performance [3].

3) Transparente et responsable

La sélection des candidats repose exclusivement sur les résultats d’évaluations, selon une règle objective. Le processus peut ainsi être facilement expliqué aux différentes parties prenantes (RH, candidats, directions, etc.), ce qui garantit une transparence totale et une forte redevabilité (accountability).

4) Qui bénéficie d’un bon niveau d’acceptabilité par les candidats

Les outils utilisés sont perçus comme pertinents car ils évaluent uniquement des compétences en lien direct avec le poste. De plus, la transparence de la démarche renforce le sentiment d’un traitement équitable, ce qui instaure la confiance et améliore l’expérience candidat [4].

Examinons à présent plus en détail les fondements scientifiques des deux principes du recrutement actuariel.

Principe 1 : Evaluer les candidats avec des outils prédictifs

Les méthodes d’évaluation des candidats sont diverses et nombreuses (entretien, mises en situation, tests d’aptitudes cognitives, etc.). Lesquelles sont les plus prédictives de la performance professionnelle future ? Un siècle de recherches a tenté de répondre à cette question que les spécialistes en psychologie du travail et des organisations ont qualifiée de « problème suprême » [5].

Techniquement, il s’agit d’estimer la corrélation entre les scores des personnes à une méthode (le prédicteur) et la performance professionnelle (le critère). Plus cette corrélation est élevée, plus ceux qui ont un score élevé ont une performance élevée (et inversement), et donc plus la méthode est valide.  

Une synthèse de ces études publiée en 1998 par Schmidt et Hunter [6] a marqué un tournant : elle a montré que certaines méthodes d’évaluation présentent des corrélations substantielles avec la performance au travail, notamment les tests d’aptitude cognitive générale. Cette synthèse a servi de référence pendant plus de 20 ans, tant pour les chercheurs que pour les praticiens en ressources humaines.

En 2022, Sackett et ses collègues [1] ont actualisé ces résultats en adoptant une approche plus conservatrice dans l’estimation de la validité des méthodes. Leurs résultats montrent notamment que :

1) Les estimations de la validité sont globalement plus basses que celles de Schmidt et Hunter. Mais ces valeurs restent remarquablement élevées.

2) Les tests d’aptitude cognitive générale ne figurent plus en haut du classement et leur validité chute drastiquement (de 0.51 à 0.31).

3) La méthode la plus valide est l’entretien structuré (validité = 0.42). Celui-ci est beaucoup plus valide que l’entretien traditionnel (validité = 0.19). Aussi, tout recrutement actuariel devrait inclure un entretien structuré.

4) Les méthodes les plus valides sont celles qui évaluent des compétences spécifiques au poste (vs. générales comme les tests psychométriques). En effet, après les entretiens structurés, les trois méthodes les plus valides sont les tests de connaissances professionnelles (validité = 0.40), les questionnaires biographiques (validité = 0.38), et les mises en situation (validité = 0.33).

5) L’expérience professionnelle ne prédit pas la performance au travail (validité = 0.07).

6) Les questionnaires de personnalité prédisent modérément la performance au travail. Parmi les traits du Big Five, ceux dont la validité est la plus élevée sont le caractère consciencieux (validité = 0.25) et la stabilité émotionnelle (validité = 0.23).

Par ailleurs, un recrutement repose rarement sur une seule méthode de sélection. En pratique, plusieurs méthodes sont souvent combinées. Sur la base de la synthèse de Sackett et al., Berry et al. [7] ont estimé la validité de diverses combinaisons parmi six méthodes de sélection : les tests d’aptitude cognitive générale, les questionnaires biographiques, les questionnaires mesurant le caractère consciencieux, les entretiens structurés, les tests d’intégrité, et les tests de jugement situationnel. Par exemple :

  • Entretien structuré : 0.42
  • Entretien structuré + Test d’intégrité : 0.53
  • Entretien structuré + Test d’intégrité + Test d’aptitude cognitive générale : 0.58

Et en plus d’améliorer le niveau de prédictivité, utiliser plusieurs méthodes de sélection permet d’améliorer la diversité parmi les candidats recrutés [8].

Principe 2 : Décider en utilisant une règle objective

Vous avez appliqué le 1er principe du recrutement actuariel en évaluant les candidats à l’aide d’outils prédictifs, par exemple, un entretien structuré, un test d’intégrité, et un test d’aptitude cognitive générale. Les candidats ont obtenu un score à chacun de ces outils. Vient maintenant le moment d’analyser ces données et de prendre une décision pour chaque candidat.

Nous avons vu que la combinaison de ces trois outils atteint une validité de 0.58 [7]. Techniquement, cela signifie que la somme pondérée des scores corrèle à 0.58 avec la performance professionnelle future. Mais dans la pratique, les recruteurs appliquent rarement une règle mathématique. Ils examinent plutôt les scores de façon qualitative et intuitive (ex : « ce candidat n’a pas les meilleurs scores dans l’ensemble, mais je pense qu’il correspond bien au poste »).

Or ce jugement subjectif est bien moins prédictif de la performance professionnelle. En d’autres termes, le bénéfice apporté par les outils utilisés est en grande partie perdu si la décision finale repose sur une impression globale. C’est précisément ce que montrent des décennies de recherches sur la prise de décision.

La décision actuarielle

La plupart des décisions peuvent être prises soit de manière subjective (par un humain), soit de manière objective, en appliquant une règle, une équation ou un algorithme. Laquelle de ces deux approches conduit aux meilleures décisions ? 70 ans de recherches en psychologie cognitive ont apporté une réponse claire et consensuelle à cette question.

En 1954, le psychologue Paul Meehl, professeur à l’université du Minnesota, publie l'ouvrage Clinical Versus Statistical Prediction [9]. Il y passe en revue des études comparant deux approches de la prise de décision : la décision dite « clinique », fondée sur le jugement humain, et la décision « statistique », qu’il appelle aussi « actuarielle » en référence aux méthodes utilisées en assurance et en finance. Contre toute attente, Meehl montre que les décisions actuarielles sont aussi bonnes, et souvent meilleures, que les décisions humaines, et ce dans une grande variété de contextes.

Voici un exemple d’étude passée en revue par Meehl, conduite à l’université du Minnesota auprès de 162 étudiants de première année [10]. L’objectif : prédire, dès le début de l’année, leur note finale (Grade Point Average). Deux méthodes sont comparées :

  • La prédiction statistique : le résultat d’une équation – de régression linéaire – utilisant seulement deux variables : les résultats scolaires au lycée et le score à un test d’aptitudes à l’entrée à l’université.
  • La prédiction clinique : celle d’un conseiller d’orientation de l’université. Ce dernier avait accès aux deux informations utilisées dans la prédiction statistique, mais aussi à de nombreuses autres informations : les résultats à d’autres tests, un formulaire personnel de huit pages, et même un entretien avec l’étudiant. Cinq conseillers se sont livrés individuellement à cet exercice.

Qui a gagné ce match prédictif ? La note finale des étudiants est mieux prédite par le modèle statistique que par les conseillers d’orientation, malgré leur accès à davantage d’informations. Autrement dit, une simple équation bat l’intuition de professionnels expérimentés.

Ce résultat, en apparence contre-intuitif, est l’un des plus établis dans les sciences du comportement. En effet, les études réalisées depuis les travaux de Meehl ont confirmé la supériorité de la décision actuarielle [11]. Une méta-analyse publiée en 2000 [2], portant sur 136 études, est particulièrement éclairante :

  • La décision actuarielle est nettement supérieure à la décision humaine dans 46 % des études ;
  • L’inverse est vrai dans seulement 6 % des études ;
  • Les deux approches sont à égalité dans 48 % des études.

Par ailleurs, leurs résultats montrent que le niveau d’expérience du décideur humain n’améliore pas la qualité de ses décisions, et que le fait de disposer de données issues d’un entretien rend la décision humaine encore moins performante par rapport à la décision actuarielle. Ce dernier point est loin d’être anodin : dans la quasi-totalité des recrutements, un entretien est réalisé. Mettre en place un recrutement actuariel permet donc d’améliorer significativement la qualité des recrutements.

Pourquoi la prédiction statistique est-elle plus performante que la prédiction humaine ?

Une raison essentielle tient à l’erreur humaine, à laquelle est exposé tout décideur, qu’il soit novice ou expert. Cette erreur comporte deux composantes : les biais et le bruit. Les biais sont des erreurs systématiques [12]. Par exemple, un recruteur peut avoir un biais de genre qui l’amène à moins bien évaluer les femmes que les hommes de façon systématique.

Le bruit (noise) est quant à lui une erreur aléatoire dans le jugement humain [13]. Dans l’exemple sur la prédiction de la note finale des étudiants, les conseillers d’orientation n’accordent pas le même poids aux informations qu’ils traitent d’un étudiant à l’autre [14]. Par exemple, un conseiller peut accorder beaucoup d’importance aux résultats scolaires au lycée pour un étudiant mais moins pour un autre. Ce bruit rend la prédiction incohérente : un conseiller peut faire des prédictions différentes pour des étudiants pourtant similaires.

Au contraire, une formule applique les mêmes pondérations à tous les candidats. Elle est figée, constante, et donc insensible au bruit. C’est cette régularité qui explique pourquoi les formules surpassent en moyenne le jugement humain.

Faire confiance au modèle

Le caractère figé d’une formule constitue à la fois sa force – comme on vient de le voir – et sa faiblesse. Il empêche en effet de tenir compte des particularités propres à chaque cas. Paul Meehl avait illustré cette limite au travers de l’exemple de la jambe cassée.

Imaginez une personne qui se rend au même cinéma tous les mardis soir. Un modèle simple prédit donc que, chaque mardi, cette personne ira très probablement au cinéma. Mais un lundi, elle se casse une jambe. Dans ce cas particulier, un humain pourra intégrer cette information nouvelle et ajuster sa prédiction. Le modèle, lui, continuera de prédire une sortie au cinéma, ce qui sera clairement une erreur.

On pourrait alors penser qu’il serait optimal de fournir au décideur la prédiction du modèle, tout en lui laissant la possibilité de l’ajuster en cas de « jambe cassée ». Mais les recherches montrent que, dans ce cas, les humains voient trop de jambes cassées [11]. Autrement dit, ils s’autorisent trop souvent à ignorer la prédiction du modèle sous prétexte que « cette fois, c’est différent ». En procédant ainsi, on perd le gain prédictif du modèle.

Contrairement à un modèle ou une formule, un humain peut intégrer des informations exceptionnelles ou inhabituelles. Toutefois, ces situations sont rares, par définition. Cela implique que la prédiction du modèle devrait être suivie dans la très grande majorité des cas.

Recrutement humain vs. actuariel

La supériorité de la décision actuarielle n’est pas moins vraie dans le recrutement que dans d’autres domaines. Une meta-analyse de 17 études publiée en 2013 [15] montre que :

  • La performance professionnelle (l’évaluation par le supérieur hiérarchique) est mieux prédite par une formule (r = 0.44) que par un humain (r = 0.28) ;
  • La note finale des étudiants à l’issue d’une année universitaire est mieux prédite par une formule (r = 0.58) que par un humain (r = 0.48).

Comme dans l’étude évoquée plus haut [10], la formule actuarielle correspond souvent à une équation de régression linéaire. La supériorité d’une telle formule dans les décisions de recrutement se vérifie dès lors qu’un grand nombre de candidats est en jeu, quel que soit le niveau du poste : opérationnel, intermédiaire ou de direction.

Les résultats de cette meta-analyse ont été vulgarisés dans un article publié dans la Harvard Business Review, intitulé « In Hiring, Algorithms Beat Instinct ».

La supériorité de la décision statistique sur le jugement humain en matière de recrutement a été magistralement illustrée dans le livre Moneyball de Michael Lewis [16], adapté ensuite au cinéma. Ce récit retrace l’histoire des Oakland Athletics, un club de la Ligue majeure de baseball américaine, qui, au début des années 2000, a réussi à figurer parmi les meilleures équipes tout en disposant de l’un des budgets les plus faibles de la ligue.

Cette performance remarquable s’explique par une stratégie novatrice mise en œuvre par le manager général du club, Billy Beane. Plutôt que de se fier aux intuitions des recruteurs traditionnels (les scouts), il s’appuyait sur une évaluation statistique des joueurs, ce qui lui permettait de recruter des talents sous-évalués par le marché.

Les recruteurs qui évaluent les candidats « au feeling » et les scouts dans Moneyball partagent les mêmes travers :

  • Ils se fient trop à leur intuition, souvent influencée par des facteurs sans lien réel avec la performance future comme la première impression, l’apparence ou la manière de s’exprimer.
  • Ils surestiment leur capacité à cerner un candidat et à anticiper son avenir professionnel, alors même que la recherche montre que ces jugements intuitifs sont peu fiables [17].
Extrait de Moneyball (2011), réalisé par Bennett Miller. Lors de la saison 2002, le manager général des Oakland Athletics, Billy Beane (interprété par Brad Pitt), met en place une stratégie de recrutement des joueurs fondée sur les statistiques. Le film retrace la tension entre cette approche innovante et celle des recruteurs traditionnels (les scouts), basée sur l’intuition et l’expérience.

Le recrutement actuariel chez Google

A ce stade, vous vous dites peut-être que le recrutement actuariel est une lubie de chercheurs, difficile à mettre en œuvre dans la réalité. Détrompez-vous : cette méthode existe déjà, et certains recruteurs l’appliquent sans même le savoir. En voici un exemple concret, et non des moindres, puisqu’il concerne Google.

Si vous lisez Work Rules! de Laszlo Bock [18], ancien DRH de Google, vous découvrirez que le processus de recrutement chez Google – du moins à l’époque où il occupait ce poste – ressemble de très près à un recrutement actuariel. Ce processus est le suivant :

  • Etape 1 : Examen des CVs.
  • Etape 2 : Entretien structuré à distance, centré sur les aptitudes cognitives.
  • Etapes 3 et 4 : Entretiens structurés en présentiel, évaluant des traits de personnalité comme le caractère consciencieux et le leadership.
  • Etape 5 : Chaque entretien est noté (sur une échelle de 0 à 4) par au moins deux évaluateurs de façon indépendante. Le score final du candidat correspond à la moyenne des notes.
  • Etape 6 : La décision finale est prise collectivement par un comité de recrutement, un cadre dirigeant, et le CEO.

Les étapes 2 à 5 traduisent le 1er principe du recrutement actuariel : évaluer les candidats avec des outils à forte validité prédictive. Laszlo Bock précise que le choix d’évaluer les aptitudes cognitives et le caractère consciencieux via des entretiens structurés reposait sur l’étude de Schmidt et Hunter [6], celle de Sackett et al. [1] n’étant pas encore disponible à l’époque. Dans l’étape 5, moyenner les notes des évaluateurs est la manière la plus fiable de les agréger, car cela réduit le bruit. Il est essentiel de comprendre que la prédictivité des entretiens structurés est contenue dans ce score moyen.

Le 2nd principe du recrutement actuariel stipule que la décision finale devrait être prise en appliquant une règle objective au score moyen aux entretiens structurés. Or chez Google, cette décision – à l’étape 6 du processus – est prise par des personnes. Le recrutement n’est donc pas actuariel sur le papier.

Cependant, Laszlo Bock indique que Google utilise une règle informelle : recruter un candidat si son score moyen est supérieur ou égal à 3. Les décideurs suivent-ils cette règle à l’étape 6 ? La figure ci-dessous montre que c’est le cas : les candidats qui remplissent ce critère sont effectivement recrutés dans 86 % des cas. Ce pourcentage correspond à la valeur prédictive positive du score moyen. Autrement dit, les décideurs suivent la règle la plupart du temps : ils voient peu de « jambes cassées ».

Cet exemple illustre parfaitement la recommandation de Kuncel et al. [15] : les décideurs peuvent « utiliser les données combinées de manière objective comme point d’ancrage, puis y apporter des ajustements limités (ou fondés sur un consensus) ».

Figure extraite de WorkRules! de Laszlo Bock, ancien DRH de Google. Elle montre le taux de précision (accuracy) des évaluateurs, qui font passer des entretiens structurés aux candidats. Ce taux correspond au pourcentage de candidats que l’évaluateur recommande de recruter (score à l’entretien structuré ≥ 3) qui ont été effectivement recrutés. Lorsque les scores des différents évaluateurs sont moyennés, ce taux atteint 86 % (ce qui est supérieur au taux obtenu par chaque évaluateur pris individuellement).

On peut donc l’affirmer : le processus de recrutement chez Google décrit par Laszlo Bock est quasiment actuariel. Et gageons que cela n’est pas étranger au succès mondial de cette entreprise.

Et le recruteur dans tout ça ?

Beaucoup penseront que « le recrutement actuariel consiste à remplacer le recruteur par un algorithme ». Cette idée est doublement fausse.

Premièrement, le recrutement actuariel consiste à sélectionner les candidats sur la base d’une procédure objective. Cette procédure peut être mise en œuvre entièrement par des personnes, sans aucun recours à un algorithme ou à l’IA. On l’a vu dans l’exemple de Google : leur processus de recrutement repose uniquement sur des personnes, sans automatisation algorithmique.

Deuxièmement, le recrutement actuariel n’évacue pas le recruteur du processus, bien au contraire. Comme nous l’avons vu, l’entretien structuré est la méthode d’évaluation la plus prédictive de la performance professionnelle. Le 1er principe du recrutement actuariel implique donc que tout recrutement devrait inclure – au moins – un entretien structuré. Or concevoir et mener un tel entretien demande un travail conséquent du recruteur, qui nécessite d’ailleurs une formation spécifique [19].

Il est vrai que l’implication du recruteur est réduite dans la phase d’analyse des données et de décision, qui repose sur une règle objective. Mais cela ne signifie pas que son rôle disparaît. Le recruteur conserve un rôle actif et décisif : il examine le résultat produit par la règle, et c’est à lui que revient la décision finale en suivant ou non ce résultat.

Conclusion

Un siècle de recherches en psychologie du travail et des organisations, et 70 ans de recherches en psychologie cognitive, convergent vers deux recommandations clés en matière de recrutement :

1) Evaluer les candidats à l’aide d’outils dont la validité prédictive est établie.

Il s'agit des entretiens structurés, des tests de connaissances professionnelles, et des questionnaires biographiques.

2) Sélectionner les candidats en appliquant une règle objective à leurs données.

Le recrutement actuariel consiste à mettre en œuvre ces deux principes. Il représente la forme la plus aboutie de recrutement fondé sur des preuves. Dans les contextes à fort volume de candidatures, un questionnaire biographique peut efficacement servir à la pré-sélection, tandis que des entretiens structurés peuvent être utilisés en phase finale. Quelle que soit l’étape du processus, la sélection devrait toujours se faire suivant une règle objective.

Cette méthode maximise les chances de sélectionner les candidats qui seront les plus performants une fois en poste, tout en favorisant la diversité. Elle offre également un haut degré de transparence et de responsabilité, ce qui renforce le sentiment d’un traitement équitable chez les candidats et instaure une relation de confiance durable dans le processus de recrutement.

Finalement, le recrutement actuariel est une approche data-driven qui recentre le recrutement sur son objectif premier : sélectionner le(s) meilleur(s) candidat(s) pour un poste. La recherche montre que la méthode la plus efficace pour y parvenir consiste à appliquer une règle objective aux données (typiquement, calculer un score moyen pour chaque candidat et retenir ceux dont le score dépasse un certain seuil). La décision finale revient au recruteur, mais celui-ci doit alors « trust the process » : faire confiance à la méthode, et se rappeler que la règle se trompe bien moins souvent que son intuition.

Références

[1] Sackett, P. R., Zhang, C., Berry, C. M., & Lievens, F. (2022). Revisiting meta-analytic estimates of validity in personnel selection: Addressing systematic overcorrection for restriction of range. Journal of Applied Psychology, 107(11), 2040–2068.

[2] Grove, W. M., Zald, D. H., Lebow, B. S., Snitz, B. E., & Nelson, C. (2000). Clinical versus mechanical prediction: A meta-analysis. Psychological Assessment, 12(1), 19–30.

[3] Sackett, P. R., Zhang, C., Berry, C. M., & Lievens, F. (2023). Revisiting the design of selection systems in light of new findings regarding the validity of widely used predictors. Industrial and Organizational Psychology, 16(3), 283–300.

[4] Hausknecht, J. P., Day, D. V., & Thomas, S. C. (2004). Applicant reactions to selection procedures: An updated model and meta-analysis. Personnel Psychology, 57(3), 639–683.

[5] Ployhart, R. E., Schmitt, N., & Tippins, N. T. (2017). Solving the Supreme Problem: 100 years of selection and recruitment at the Journal of Applied Psychology. The Journal of applied psychology, 102(3), 291–304.

[6] Schmidt, F. L., & Hunter, J. E. (1998). The validity and utility of selection methods in personnel psychology: Practical and theoretical implications of 85 years of research findings. Psychological Bulletin, 124(2), 262–274.

[7] Berry, C. M., Lievens, F., Zhang, C., & Sackett, P. R. (2024). Insights from an updated personnel selection meta-analytic matrix: Revisiting general mental ability tests’ role in the validity–diversity trade-off. Journal of Applied Psychology, 109(10), 1611–1634.

[8] Ployhart, R. E., & Holtz, B. C. (2008). The diversity-validity dilemma: Strategies for reducing racioethnic and sex subgroup differences and adverse impact in selection. Personnel Psychology, 61(1), 153–172.

[9] Meehl, P.E. (1954). Clinical versus statistical prediction: A theoretical analysis and a review of the evidence. Minneapolis: University of Minnesota.

[10] Sarbin, T. R. (1943). A contribution to the study of actuarial and individual methods or prediction. American Journal of Sociology, 48, 593–602.

[11] Dawes, R. M., Faust, D., & Meehl, P. E. (1989). Clinical versus actuarial judgment. Science, 243(4899), 1668–1674.

[12] Kahneman, D. (2011). Thinking, Fast and Slow. New York, NY: Farrar, Straus and Giroux. Traduction française : Kahneman, D., & Clarinard, R. (2012). Système 1, système 2 : Les deux vitesses de la pensée. Paris : Flammarion.

[13] Kahneman, D., Sibony, O., & Sunstein, C. R. (2021). Noise: A flaw in human judgment. New York, NY: Little, Brown Spark.

[14] Karelaia, N., & Hogarth, R. M. (2008). Determinants of linear judgment: a meta-analysis of lens model studies. Psychological bulletin, 134(3), 404–426.

[15] Kuncel, N. R., Klieger, D. M., Connelly, B. S., & Ones, D. S. (2013). Mechanical versus clinical data combination in selection and admissions decisions: a meta-analysis. The Journal of applied psychology, 98(6), 1060–1072.

[16] Lewis, M. (2003). Moneyball: The art of winning an unfair game. New York: W.W. Norton & Company.

[17] Highhouse, S. (2008). Stubborn reliance on intuition and subjectivity in employee selection. Industrial and Organizational Psychology: Perspectives on Science and Practice, 1(3), 333–342.

[18] Bock, L. (2015). Work rules!: Insights from inside Google that will transform how you live and lead. New York, NY: Twelve.

[19] Campion, M. A., Palmer, D. K., & Campion, J. E. (1997). A review of structure in the selection interview. Personnel Psychology, 50(3), 655–702.