Vous avez dit recrutement prédictif ?

L’utilisation du Big Data et de modèles prédictifs dans le cadre du recrutement apparaît aux yeux de certains comme le Saint-Graal longtemps espéré et recherché. Il est maintenant à portée de main. Faut-il pour autant s’en emparer ? Si la technologie est mûre, faut-il pour autant l’appliquer sans avoir réfléchi aux impacts sur les usages, les processus et la relation avec les candidats ? L’objectif de cet article est de poser quelques questions et de s’interroger sur l’équilibre risques/avantages quant à l’utilisation de ces technologies. On s’attachera, dans un premier temps, à définir les principaux mécanismes du Big Data et des systèmes prédictifs. Il sera alors possible d’examiner les conséquences de son application au monde du recrutement en matière de réglementation, de retour sur investissement prévisible, de standardisation des processus et, en définitive, d’utilité réelle.
Il est des termes qui énervent, dérangent et finalement desservent ce pour quoi ils ont été créés dans des logiques marketing de simplification outrancière d’une offre ou d’un concept. L’adjonction de « prédictif » à « recrutement » fait, pour moi, partie de ceux-là…
D’autant que le propre d’une opération de recrutement est bien – entre autres choses – d’anticiper la capacité d’un individu à s’intégrer dans une organisation. La notion de « prédictivité » est même de mise lorsqu’on examine les différentes méthodes de recrutement. Certaines d’entre elles ayant un niveau de « validité prédictive » supérieure à d’autres (ces niveaux étant calculés par un ensemble d’études et d’analyses statistiques). Tout recrutement se devant d’être prédictif, « Recrutement prédictif » est un pléonasme. Mais le génie de la novlangue des consultants fait que, derrière le terme de recrutement prédictif, se cache maintenant la conjonction, la rencontre de deux mondes : le Big Data et le Recrutement.
Sommaire
Le Big Data et les modèles prédictifs
La logique du Big Data dépasse le simple traitement d’un grand volume de données. L’intérêt est de coupler ces données, nombreuses, volumineuses et souvent non structurées, avec un modèle d’analyse qui permettra alors d’anticiper, de prévoir la probabilité de survenance d’un événement. La qualité d’une approche de type Big Data repose donc notamment sur la qualité des données et celle du modèle prédictif qui lui sera associé. L’élaboration d’un modèle prédictif, dans le monde RH, nécessite notamment de travailler en amont sur l’identification des variables significatives, celles qui, toutes choses égales par ailleurs, ont un impact sur la survenance d’un événement.
Prenons l’exemple de l’absentéisme. On pourra travailler avec l’ensemble des arrêts de travail à l’intérieur d’une organisation en tenant compte, pour chacun d’eux, d’un ensemble de variables liées aux contextes professionnels et personnels (métier, poste, rythmes de travail, temps de trajet, subrogation, âge, nombre d’enfants, etc.). En analysant en profondeur ces données, il sera alors possible d’identifier les variables qui ont un impact sur la survenance de l’événement « est absent » et celles qui n’en ont pas. Il n’est pas rare de travailler avec plus d’une vingtaine de variables liées aux caractéristiques des individus et des organisations, et les plus significatives ne sont pas toujours celles qu’on croit.
Une fois ces variables explicatives identifiées (par exemple : l’ancienneté dans la fonction, la stabilité dans le poste, etc.), on pourra soit les regrouper en grands thèmes afin de mettre en place politiques et plans d’action pour réguler les dysfonctionnements constatés, soit anticiper l’impact de la variation d’une ou plusieurs variables sur les résultats finaux.
On le voit clairement, l’utilité Big Data réside ici dans la grande capacité de traitement des données pour, avec le soutien de la statistique, pouvoir identifier les variables véritablement significatives. Une fois ces variables identifiées et les éventuelles corrélations existant entre elles examinées, il sera possible de les regrouper en grande famille et d’identifier les différents niveaux de causalité existant entre les faits et leurs conséquences. L’identification des variables significatives constitue ainsi une première étape incontournable à l’élaboration d’un modèle prédictif.
Un point de vigilance, toutefois : notre expérience montre que si certaines variables sont significatives quelle que soit l’entreprise ou l’organisation, d’autres peuvent l’être ou pas en fonction du contexte économique, social, sociétal, culturel de l’organisation. De plus, ce qui était vrai hier ne l’est pas forcément aujourd’hui et encore moins demain, certaines variables gagnant ou perdant leur caractère significatif au cours du temps. Néanmoins, l’intérêt de la maîtrise des techniques du Big Data dans le monde des RH apparaît clairement : savoir faire face à la profusion d’informations et ordonner ces dernières dans une logique clairement prospective afin d’anticiper les situations, ou de dépasser les évidences premières en identifiant les réelles causes de dysfonctionnements. Sans être exhaustives, ces techniques semblent donc particulièrement intéressantes pour les politiques de rémunération, de lutte contre l’absentéisme, etc. Bref, pour toutes les missions RH pour lesquelles nous disposons d’un grand volume de données et pour lesquelles des décisions collectives pourraient être améliorées.
Nous avions avec Thomas CHARDIN écrit, il y a quelque temps de cela, un article à la gloire du « small data ». Au regard de ce qui vient d’être écrit plus haut, le « small data » conserve tout son intérêt. La maîtrise des techniques du Big Data nécessite divers investissements (notamment en temps et en compétences statistiques relativement avancées) et le ROI du Big Data risque d’en être particulièrement affecté. Le principe : « Travaillons d’abord les données qui dorment au fond de nos tableaux de bord » reste d’actualité.
Mais au-delà d’une logique « collective », de plus en plus de cabinets-conseils tentent de nous convaincre d’utiliser les techniques du Big Data au sein de processus de décision, lequel ne relève plus de la dimension collective mais des dimensions individuelles. Le Big Data au service du recrutement est notamment mis en avant. De prime abord, pourquoi pas, mais cela n’est pas sans poser quelques questions…
Le recrutement en question
Il est évident pour tout observateur du fonctionnement des entreprises et de la fonction RH que le recrutement évolue sous la contrainte de nombreuses pressions, parfois contradictoires. Aux objectifs classiques du recrutement (doter l’organisation en compétences, notamment), le contexte de nos entreprises vient nous surimposer de recruter dans des délais réduits, avec des conditions de coût acceptables. En complément, les évolutions sociales et sociétales posent les enjeux liés à la discrimination, la confidentialité et la sécurité des données, etc.
Véritable cheval de Troie des technologies, la fonction recrutement a profondément changé de visage. Le marketing RH, les réseaux sociaux, les tests en ligne et de nombreux autres outils font partie de la panoplie du recruteur « up to date ». Il faudrait aujourd’hui, à écouter certains, rajouter le recrutement prédictif et le Big Data. Nombre de ces évolutions ne sont pas nouvelles : en 2002, la Commission Nationale Informatique et Liberté indiquait déjà dans le cadre d’une délibération que :
- En application du deuxième alinéa de l’article 2 de la loi du 6 janvier 1978, aucune décision de sélection de candidature impliquant une appréciation sur un comportement humain ne peut avoir pour seul fondement un traitement informatisé donnant une définition du profil ou de la personnalité du candidat. Dès lors, une candidature ne saurait être exclue sur le seul fondement de méthodes et techniques automatisées d’aide au recrutement et doit faire l’objet d’une appréciation humaine. La Commission recommande à ce titre que les outils d’évaluation automatisés à distance excluant toute appréciation humaine sur la candidature soient proscrits.
- En application de l’article 3 de la loi du 6 janvier 1978 tout candidat a le droit d’être informé des raisonnements utilisés dans les traitements automatisés d’aide à la sélection de candidatures.
La logique du Big Data et l’application d’un modèle prédictif n’apparaissent pas nécessairement incompatibles avec cette délibération, tant que l’on utilise le Big Data pour identifier les variables significatives. Oui, mais significatives pour quoi, pour qui, pour quels objectifs ?
Le recrutement prédictif nous est souvent vendu comme permettant d’identifier les caractéristiques des candidats pouvant conduire à la performance sur leur poste de travail ou au cours de leurs missions. Il s’agit ici de définir par des méthodes statistiques et des traitements informatiques le profil du candidat idéal.
Une lecture restrictive de la délibération de la CNIL pourrait donc aboutir à considérer que l’élaboration du modèle prédictif contrevient au point 1° cité plus haut « … ne peut avoir comme seul fondement un traitement informatisé donnant une définition du profil ou de la personnalité du candidat. » L’utilisation dans cette délibération du terme « définition » peut donner lieu à de nombreuses interprétations. S’agit-il de la définition du profil, sous-entendu dans le cadre de la définition du besoin ou de la définition du profil, sous-entendu dans le cadre des résultats obtenus à un test…. La fin du paragraphe peut également être lue dans ce sens très restrictif : dès lors, une candidature ne saurait être exclue sur le seul fondement de méthodes et techniques automatisées d’aide au recrutement et doit faire l’objet d’une appréciation humaine. L’utilisation du terme « le seul » permet néanmoins de se libérer du risque, tant que le recruteur et sa capacité d’appréciation restent maîtres du jeu.
Mais, au-delà de ces questions sémantiques et dans l’attente d’une prise de position de la CNIL sur ce sujet ainsi que sur celui des ATS – dont la conformité à la réglementation est encore plus contestable et qui mériteraient à eux seuls un article bien plus long que celui-ci – se posent d’autres problèmes. Je n’en retiendrai que trois, afin de ne pas trop charger la barque d’une approche qui est pour moi intéressante mais nécessite un peu de recul, et de ne pas foncer tête baissée dans une dérive technologique contre-productive.
La modélisation de la performance
Si l’on se replace dans une logique de type Big Data, la définition des variables significatives est, on l’a vu, essentielle. Elle nécessite de travailler avec un grand volume de données, autrement dit un grand volume de collaborateurs et/ou un grand volume de recrutement. Mais la performance d’un collaborateur ne dépend pas que de lui. Elle est fonction de son environnement, de la manière dont on a travaillé à la réduction des écarts entre rôle confié et rôle tenu. La place et le rôle du manager sont donc essentiels. Dans les faits, nombre de variables significatives ne dépendent pas du collaborateur et sont globalement inapplicables aux candidats puisqu’ils ne sont pas soumis aux mêmes contextes (on pourrait avancer l’existence d’une liaison entre formation professionnelle des collaborateurs et performance, notamment).
Appliquer des modèles prédictifs de la performance aux candidats pourrait donc apparaître comme relativement hasardeux, les modèles étant bien souvent incomplets ou tronqués. Avec l’utilisation du Big Data se pose donc la question de la qualité de la « boite noire », de la manière dont elle a été constituée et de son niveau d’adéquation au contexte de l’entreprise et du métier qu’elle est censée modéliser.
On pourra arguer que les tests, pour autant qu’ils soient de qualité et construits en respectant certaines normes (on pourra lire à cet effet le bref article d’Alexandra DIDRY, Docteur en Psychologie et Directeur de la Recherche de PerformanSe ), sont construits et amendés en fonction de techniques statistiques relativement poussées et qu’ils peuvent apparaître comme assez obscurs. Sauf que la restitution des résultats à un candidat est un acte fort et qu’elle peut, comme toute observation sociale, conduire à des modifications de l’objet observé. En clair, restituer les résultats permet de faire évoluer le candidat et l’organisation qui pourront alors s’adapter aux enjeux et attentes mutuels. Retenons l’image de ces jeux destinés aux enfants, où ces derniers doivent replacer les formes dans les trous : l’organisation est le plateau et le candidat une pièce qui n’est pas exactement à la bonne forme. La restitution (avec d’autres actions qui seront alors mises en œuvre dans la phase d’intégration) permettra donc d’ajuster la forme d’accueil (l’organisation, les missions, le contexte… du poste) ainsi que la pièce. Au-delà de la qualité de la « boite noire » permettant de travailler à l’identification des critères de performance dans le poste, se pose donc la question de la restitution et de l’information du candidat heureux ou malheureux.
La fabrique des clones
Quand bien même ces modèles seraient exhaustifs, bien construits, adaptés aux réalités de votre organisation et aux réalités des métiers que l’on cherche à recruter (les critères de performances des uns n’étant pas nécessairement ceux des autres), la généralisation de ce type de recrutement amène mécaniquement à une standardisation des profils recrutés. Exit la diversité, la complémentarité et toutes choses qui font qu’une équipe gagne par la cohérence de son collectif, et pas nécessairement avec une somme d’individualités performantes. Certes, cette standardisation sera moins visible que le recrutement massif de « jeunes » sortant tous de la même école, ou d’hommes de 35 à 45 ans. Elle n’en portera pas moins les gènes de l’appauvrissement du collectif.
Discrimination en vue
Les risques de discrimination directe ou indirecte semblent majeurs, d’autant que nombre de candidats rejetés pourraient légitimement arguer du fait qu’ils ont été exclus du processus de recrutement sur la base de considérations non directement liées aux compétences et aptitudes nécessaires à la tenue du poste proposé ; et qu’en application de l’article 3 de la loi du 6 janvier 1978, tout candidat a le droit d’être informé des raisonnements utilisés dans les traitements automatisés d’aide à la sélection de candidatures.
Science sans conscience n’est que ruine de l’âme …
Articuler Big Data et « Recrutement » dans une logique de recrutement prédictif revient donc à s’exposer à quelques désagréments :
- une fabrique de clones,
- des coûts importants au regard de la valeur ajoutée prévisible du dispositif si vous ne vous positionnez pas dans une logique de grands volumes de recrutement pour des métiers spécifiques,
- des risques juridiques au regard de la réglementation relative à la loi Informatique et liberté,
- des risques juridiques au regard de la réglementation sur la discrimination.
On lit souvent que les recruteurs sont « des nuls ». Ces avis tranchés, formulés dans la quasi-totalité des cas par des personnes qui seraient incapables de faire mieux, pullulent et prolifèrent sur les réseaux sociaux. Mais que leur reproche-t-on ? De ne pas avoir été sélectionné ? De ne pas avoir pris conscience de tout le potentiel que l’on s’attribue ? En partie, mais le vrai grief tient plutôt au caractère opaque des décisions, à l’absence de réponse lors de demandes d’éclaircissement et de tout un ensemble d’insatisfactions relevant principalement du manque de confiance. Il n’est pas sûr que le recours aux techniques du recrutement prédictif puisse améliorer cette situation, bien au contraire. Mais revenons à ce que l’on attend d’un recruteur : lorsque ce dernier fait son travail correctement, il examine en amont du recrutement les différents facteurs pouvant constituer des motifs d’échec ou de réussite. Il tient compte du contexte, de l’évolution prévisible des enjeux (ce qui est quasiment impossible pour une technique reposant sur le Big Data puisque les données n’existent pas), etc. Ce qui fait la qualité d’un recruteur, c’est aussi sa capacité d’adaptation aux demandes, toujours particulières et spécifiques.
Faut-il alors monopoliser des outils technologiques importants pour élaborer un modèle prédictif pour des résultats aléatoires ou renforcer le professionnalisme des recruteurs afin de réduire l’incertitude ? Avant de foncer tête baissée dans le « bug data », il est, comme pour le « small data », important de se demander si les sommes dépensées dans ces technologies ne seraient pas plus utiles pour professionnaliser les recruteurs, faire évoluer les usages, anticiper les risques pour envisager, dans un second temps seulement, le recours au Big Data. Il s’agira alors de doter les équipes RH de compétences en traitement et analyse de données (en formant, en recrutant des professionnels ou en ayant recours à des experts), en définissant bien l’utilité du Big Data et les limites de son utilisation.
Il y a maintenant quelques années de cela, j’assistais à une présentation des mécanismes financiers de la crise des « subprimes » par le directeur financier d’une grande banque internationale. Nous étions une trentaine de professionnels RH dans la salle. Quel n’a pas été notre étonnement quand il nous assena que nous avions de la chance d’être « réellement stratégiques ». Au-delà du discours convenu face à un auditoire acquis au caractère stratégique des RH, il nous expliqua que sa fonction était maintenant tellement outillée, encadrée par des règles financières, statistiques, que nombre de décisions étaient prises par des machines ; et que, selon lui, ce n’était plus la fonction mais l’activité qui était stratégique. Science sans conscience n’est que ruine de l’âme… et du RH.
Crédits photos : Fotolia © vege
______________________________________________________________
François GEUZE
Directeur de la Recherche O2J Audit Climat Social
Master Management des Ressources Humaines de Lille – www.master-mrh.org
Pour recevoir les derniers articles de Parlons RH par mail ou s’abonner à la newsletter