HCM/SIRH : promesses et menaces de l’AI dans les Ressources Humaines
L'Intelligence Artificielle dans les outils de gestions des ressources humaines a de nombreux champs d'applications, souvent très novateurs. Mais comme l'AI s'applique ici à l'humain, plusieurs précautions s'imposent pour lutter contre la méfiance voire la résistance des employés.
Dès qu’il touche à l’humain, l’algorithme sent le soufre. L’organique, l’alchimie des échanges interpersonnels et les synergies de groupe se prêtent plus ou moins bien à la modélisation mathématique. Et l’humain lui-même n’aime pas, quand l'équation fonctionne, se savoir prévisible et réductible à des chiffres. C’est un fait qui explique que les très nombreuses promesse de l’AI appliquée à la gestion des ressources humaines s’accompagnent d’autant de suspicions, voire de défiance.
L’AI réécrit les annonces
Dans le recrutement, l’AI est d’ores et déjà à l’oeuvre dans la relecture d’annonces. Textio - utilisé par Expedia - est par exemple capable via l'analyse sémantique de déterminer si une annonce est trop « masculine ». L'outil préconise alors des tournures pour des candidatures « neutres », voire « inclusives » pour les candidates.
Des expressions sportives, voire guerrières, auraient ainsi tendance à rebuter les femmes, explique Rupert Bader de chez Expedia. Les puces dans une liste descriptive de compétences attireront pour leur part l’un ou l’autre genre en fonction de leurs nombres. Un angle plus axé sur le « développement » serait également plus prisé par la gente féminine, tandis que les exigences du type « vous devrez avoir tant d’années d’expériences » les décourageraient plus que les hommes.
Ceci étant, pour promouvoir ses conseils de style, Textio a besoin de comprendre la langue. Pour l’anglais, a priori pas de problème. Mais pour les autres, il lui faudrait (à lui ou a un concurrent) compiler des millions de données. Pour la langue de Shakespeare, l’outil a compilé pas moins de 70 millions d’informations : nombre de candidats par annonce, qualifications des retenus, zones géographiques, notes des performances des candidats en entretien, etc. S’y ajoutent des données de tendances, fluctuantes. Par exemple, le mot « Big Data » attirait semble-t-il les « talents » il y a deux ans alors qu'aujourd’hui, il ferait presque effet de repoussoir aux États-Unis, dixit le CTO de Textio.
En l'utilisant, Expedia, le site de voyage aurait reçu 17% de candidatures en plus, et des candidatures de meilleures qualités puisque 33% de plus ont passé un entretien. En revanche, pour l’instant, le recrutement des femmes n’a progressé que de 2%.
L’AI évalue les candidats
L’AI imprègne également l’étape suivante du processus de recrutement : l'entretien. L’éditeur d’ERP Infor (et de HCM) a par exemple une solution IT (PeopleAnswers) qui recherche des « traits de comportement » chez les candidats. Ces traits ont été déterminés en analysant 20 millions de candidatures. Parmi eux on retrouve : l'ambition, la discipline, l'énergie, l'acceptation de l'autorité, l'attention portée aux détails, la flexibilité, la conscience professionnelle ou l’empathie. « Ces attributs sont évidemment pondérés de manière différente, en fonction du poste », précise l’éditeur qui propose de générer « une sorte de profil ADN du candidat ».
D’après Infor, un recrutement sur deux serait un échec. Le recours à l’AI serait de plus en plus incontournable du fait que les experts des RH analyseraient les compétences des candidats alors que ce sont les comportements – et pas les compétences – qui seraient responsables de neuf mauvais castings sur dix. Infor a une autre offre du même type mais qui se concentre sur les cadres de haut niveau (Infor Talent Science).
Une autre société américaine, HireVue, analyse les enregistrements vidéo des entretiens. Son intelligence artificielle regarde la vidéo, détermine si la personne dit la vérité et/ou souligne des indices qui traduisent (trahissent ?) sa personnalité. C’est en tout cas la promesse de HireVue.
La donnée et les biais sociétaux
Sous le capot, PeopleAnswers d'Infor ne s’appuie pas que sur des données internes à une entreprise. Et c’est tant mieux car un des gros biais de l’AI appliquée au RH vient souvent de la donnée qu’on lui donne pour apprendre.
Par exemple, si la totalité du top management d’un grand groupe est composé de X-Mines et de HEC-ENA, l’AI en déduira que ce sont ces deux profils qui ont les compétences voulues alors qu’il est envisageable que ce soit, au contraire, une sélection par le réseau qui aboutisse à cette situation et non la concrétisation du mérite pur.
Idem pour une société à la parité faible, l’AI pourrait purement et simplement la reproduire au lieu de la contrebalancer, juste parce que les données ingérées sont elles mêmes biaisées (principe du « Garbage In - Garbage Out »).
« Choisir les bonnes données est essentiel pour faire en sorte que l'intelligence artificielle résolve véritablement des problèmes », acquiesce Yvonne Baur, en charge du prédictif chez SuccessFactors (SAP) « Par exemple, une entreprise qui nourrit un algorithme de toutes ses données historiques sur ses profils à haut potentiels pourrait perpétuer un biais dans le recrutement si la plupart de ces personnes sont des hommes. Il est important d'examiner les données d'une manière réfléchie et d'élaborer un choix » pour redresser les biais.
L’AI sait qui est le prochain PDG (et propose des carrières aux autres)
Cornerstone OnDemand propose peu ou prou le même type d’outil d’AI et de Machine Learning (Cornerstone Insights) que ceux décrits chez Infor. En compilant des données de toute une entreprise et celles des candidats à fort potentiel, Mark Goldin, le CTO de Cornerstone, affirme pour sa part qu’il est possible de savoir qui sera « la prochaine star » de l’entreprise (une expression que Textio aurait, au passage, certainement trouvé trop masculino-centrée).
Là encore, une telle prédiction peut souffrir d'un biais. Car en s'appuyant sur des données objectives elle oublie les jeux de pouvoirs cachés, y compris hors de l'entreprise (et souvent de manière justifiée pour la pérennité da la dite entreprise) qui commandent à la nomination du - ou de la - PDG.
L’AI dans Cornerstone a, évidemment et plus souvent, d’autres applications concrètes valables. Une des plus intéressantes est certainement de « guider les employés dans leurs choix de carrières en fonction des opportunités disponibles », résume son CTO.
Des éditeurs comme IBM (Watson) et Workday fournissent eux-aussi des outils qui analysent les évolutions au sein d'une entreprise, qui examinent l'expérience et les formations faites en interne par les employés qui réussissent, et qui conseillent les managers sur les propositions de carrières à faire.
D'autres logiciels d'IA vont plus loin et procèdent même à une analyse des sentiments sur les données des médias sociaux et font des sondages en ligne pour mesurer le moral et repérer les risques de turnover. Cette option sera néanmoins certainement perçue comme trop intrusive dans un contexte français.
Connexe à l’évolution de carrière, la formation (LMS) bénéficie elle aussi des retombées du Machine Learning, du Deep Learning et de l’informatique cognitive. « L'AI peut lire des documents et les transformer en devoirs, ou simplement recommander des cours, en fonction du cheminement de carrière et de la performance d'une personne », explique ainsi Josh Bersin, du cabinet de conseils Bersin by Deloitte.
L’AI fait les évaluations automatiquement et objectivement
Puisque un des intérêts du HCM et des outils de gestion de talent est de centraliser les informations sur les employés pour avoir « une seule version de la vérité », l’AI peut aussi logiquement s’appliquer pour modéliser leurs performances. Avec la promesse d’évaluations neutres, objectives et transparentes. Bref, des évaluations idéales... mais aussi dénuées d'affecte et/ou de compréhension des situations personnelles.
Microsoft, qui possède depuis peu une offre SIRH (Dynamics 365 for Talent), communique sur cette possibilité. Un de ses responsables France évoque la possibilité d’intégrer différents jeux de données pour évaluer les employés dont des informations issues d’Office 365 (via Microsoft Workplace Analytics) pour évaluer le nombre de mails envoyés, le nombre de mails lus, à quelle heure, le nombre de réunions par semaine, de rendez-vous clients, etc.
Aujourd’hui, cette évaluation est anonymisée et globale, tient à préciser l’éditeur. Mais il envisagerait d’ores et déjà de le proposer pour la gestion des performances individuelles.
En prenant quelques pincettes, on voit bien la menace qu’anticipe Microsoft : celle d’un rejet massif des employés qui peuvent se sentir « traqués » jusque dans leur moindre fait et geste.
Or le but des RH est aussi de créer un cadre de travail harmonieux. « Big Borther » peut être contreproductif pour atteindre cet objectif… Mais il pourrait aussi, il est vrai, séduire certains secteurs plus traditionnellement habitués à des structures rigides très verticales (certaines banques, BTP, etc.).
Une AI ne remplace pas un décideur, elle doit l’accompagner
Au-delà des limites évoquées ci-dessus, il ne faut pas oublier qu'aucune AI n’est assez mure pour remplacer totalement n’importe quelle procédure RH, avertit Bersin by Deloitte. « L'AI ne peut pas dire par exemple avec une certitude absolue qu'une personne ment en se basant sur des modèles de communication. Non seulement ce serait inexact, mais ce serait dangereux et les gens vont se fâcher », prévient-il.
« Les employés sont déjà inquiets de la façon dont les entreprises pourraient utiliser leurs données ; les employeurs doivent donc faire preuve de transparence quant à la façon dont l'IA sera utilisée et mettre l'accent sur les avantages personnels », conseille-t-il.
Les décideurs devront par ailleurs prendre des mesures pour s'assurer que l'IA n’est pas simplement mise en place pour remplacer les professionnels des RH, mais qu'elle est utilisée comme un moyen de les soulager pour en faire plus et mieux, notamment sur des problèmes que les logiciels ne peuvent pas résoudre.
« Je ne m'en servirais pas comme d'un outil pour réduire les coûts », résume Josh Bersin.
Une AI appliquée à l'Homme doit être supervisée
Autre conseil impérieux, il 'est pas possible de faire l’économie d’une supervision de l’AI par un humain.
Cette supervision est indispensable pour détecter les erreurs et remettre les recommandations dans le contexte. « Ce sont des systèmes qui apprennent », rappelle Josh Bersin. « Ils ne sont pas parfaits ». Et s'ils se trompent, ils se trompent sur une personne.
L'AI dans les RH n'est donc pas parfaite, mais pour Holger Mueller, analyste chez Constellation Research, elle n'a pas non plus à l'être. « Si la prise de décision humaine fonctionne à 51 %, et si vous obtenez un taux de réussite de 2/3 voire de 80 % grâce au pouvoir de l'IA, vous améliorez la qualité de la prise de décision dans votre entreprise de façon spectaculaire », remet-il en perspective tout en plébiscitant, lui aussi, une AI qui accompagne mais qui ne remplace pas les RH.
Le mythe de « l’AI out of the Box »
Holger Mueller lance un autre avertissement aux décideurs. Il prévient que la plupart des déploiements d’IA reposent fortement sur des sociétés de services ou d’intégrateurs, et que les outils sont moins fonctionnels que ce à quoi les utilisateurs s’attendent souvent.
« Les gens intelligents - avec le temps - peuvent construire les choses les plus étonnantes », dit-il. « Ça finira par marcher. Un jour. La question est de savoir combien vous payerez pour que ça marche ».
Holger Mueller recommande donc de demander un "bac à sable" pour tester le logiciel sur des données réelles de l'entreprise. « Mettez votre fournisseur au défi. Dîtes lui : "Voici mes données, montrez-moi ce que le Machine Learning de votre AI peut faire." Si cela prend des semaines, ce n'est probablement pas un vrai produit ».
Un autre type de test qu'il conseille consiste à prendre des données vieilles d'un an et à comparer les prédictions de l'IA avec la performance réelle.