7 bad buzz réels de l’IA dans les RH

Jeremy Lamri
12 min readAug 12, 2024

De plus en plus, il semble y avoir une forme de pression du marché pour accélérer l’adoption de l’IA (générative) dans les processus RH. Tout le monde veut du concret et vite, mais parfois au point d’oublier qu’il ne s’agit pas d’une technologie comme une autre. Amazon, Facebook, Palantir et d’autres se le rappelleront longtemps… Alors pour rappeler pourquoi il faut préparer le terrain prudemment, intégrer de la réflexion et même de la prospective avant de mettre les mains dans le cambouis, je vous propose un peu de matière réflexive, et du concret avec les 7 plus gros bad buzz de l’IA dans les RH. C’est parti !

IA & RH : quelques notions avant de commencer

L’IA est une technologie dont le but ultime est de pouvoir apprendre, réfléchir et interagir comme un être humain. Mais concrètement, en 2024, on n’en est pas là du tout. En tant que technologie, l’IA présente des risques majeurs de biais et d’erreurs, particulièrement dans le domaine RH, pour plusieurs raisons fondamentales (voir cet article de la Harvard Business Review). Pour mieux le comprendre, il faut revenir un peu (de manière non technique) sur la conception et le fonctionnement d’un modèle d’IA.

L’IA générative, qui fait du bruit en ce moment, ce sont avant tout des modèles entrainés avec des quantités colossales de contenus (26 000 ans de contenus à lire pour le cas de ChatGPT par exemple). Dans ces contenus, il y a du bon et du moins bon, parfois des fake news, des contenus poubelle et pire encore. Ensuite, ces données sont moulinées par des algorithmes conçus par des ingénieurs souvent stéréotypés (souvent des hommes), et ces algorithmes sont comme des modèles simplifiés du monde, qui vont souvent exclure ce qui sort de la norme admise.

Typiquement, en RH, les modèles d’IA sont entraînés sur des données historiques qui peuvent refléter et perpétuer des biais sociétaux existants. Logiquement, cela peut se traduire par des discriminations involontaires dans les processus de recrutement, de promotion ou d’évaluation. Par exemple, si une entreprise a historiquement favorisé certains profils pour des postes de direction, un algorithme d’IA pourrait reproduire ce schéma, même si ce n’est pas intentionnel ou souhaitable.

Mais le plus particulier en RH, c’est que les algorithmes d’IA peuvent avoir du mal à saisir les nuances et la complexité des interactions humaines, essentielles dans le domaine des RH. Ils proposent des recommandations basées sur des corrélations statistiques plutôt que sur des causalités, ce qui peut conduire à des conclusions erronées. Par exemple, une IA pourrait associer la performance à des facteurs non pertinents comme la fréquence d’utilisation de certains mots-clés dans les évaluations, plutôt qu’à des indicateurs réels de compétence et de productivité.

Il existe une dernière couche qui augmente les biais potentiels, il s’agit du manque de transparence et d’explicabilité de certains modèles d’IA. Cela signifie qu’on ne sait pas dire pourquoi ni comment une IA a fait tel choix plutôt qu’un autre. Imaginez le problème pour de la sélection de CV ! En tout, on a une série de couches génératrices de biais, qui s’amplifient l’un l’autre, et sans possibilité directe (pour le moment) de reconstituer le ‘raisonnement’ de l’IA.

En réalité, pour qu’une IA fonctionne en RH avec le moins de biais possibles, il faut lui dicter sa conduite, en général avec ce qu’on appelle un modèle expert (on vous prépare un article sur comment le mettre en oeuvre sur un système d’IA). Si l’IA doit analyser des CV, on doit lui expliquer précisément comment elle doit le faire. Et ça, c’est un problème en RH, puisque pratiquement aucune entreprise n’a actuellement de procédure documentée pour analyser un CV manuellement. A partir de là, comment le faire faire par une machine saintement ? Vous l’aurez compris, avant de foncer sur la techno, il sera notamment nécessaire de formaliser les bonnes pratiques des processus qu’on souhaite automatiser. Bienvenue dans le monde merveilleux de l’IA pour les RH, où ça ne commence pas du tout par de l’IA. CQFD :)

7 bad buzz réels de l’IA dans les RH

L’adoption précipitée de l’IA dans les processus RH a parfois conduit à des situations embarrassantes, voire scandaleuses, qui ont fait la une des médias. Ces cas d’école servent de rappel brutal quant à l’importance d’une approche réfléchie et éthique dans l’intégration de ces technologies. Parmi les exemples les plus marquants, beaucoup de RH connaissent généralement le cas d’Amazon en 2015, où leur IA de recrutement a dû être abandonnée car elle discriminait systématiquement les candidatures féminines, ayant été entraînée sur des données historiques biaisées. Mais il y en a d’autres, beaucoup d’autres ! Ici je vous propose les 7 principaux bad buzz de l’IA dans les RH.

NDLR : Attention, il ne s’agit en aucun cas d’attaquer ou de pointer du doigt les acteurs mentionnés ci-dessous. Tout d’abord, au moins ils ont tenté d’innover ! Ils sont présentés comme autant d’exemples visant à rappeler l’importance de prendre un recul indispensable lors de l’intégration de modèles d’IA dans les processus RH. Et surtout, ces exemples ont été médiatisés, mais c’est la quasi-totalité du marché qui pourrait figurer ici, avec les trieuses à CV ou autres joyeusetés mécaniques de la dernière décennie. Donc chill, on est là pour apprendre des erreurs du passé :)

Amazon et l’algorithme de recrutement biaisé (2018)

  • Le cas : utilisation d’un algorithme d’IA pour trier et évaluer automatiquement les CV des candidats. L’algorithme favorisait les hommes pour les postes techniques, à cause de biais historiques dans les données utilisées pour l’entrainement du modèle.
  • La bonne pratique : mettre en place un processus de validation humaine des décisions de l’IA, utiliser des données d’entraînement diversifiées et équilibrées, et superviser l’IA avec une IA de contrôle, afin de détecter et corriger les biais potentiels (ex : Conditional Demographic Disparity test).
  • En savoir plus : Article Reuters

HireVue et les biais de son algorithme de notation des CV (2019)

  • Le cas : utilisation d’un algorithme d’IA pour évaluer les candidats à partir de vidéos d’entretien, en analysant les expressions faciales et la voix. L’algorithme a été critiqué pour ses biais potentiels, notamment envers les personnes victimes de handicap ou issues de minorités.
  • La bonne pratique : limiter l’utilisation de l’IA à un rôle consultatif et non décisionnel, en combinant toujours ses résultats avec une évaluation humaine, et auditer régulièrement les algorithmes pour détecter les biais, et surtout, se mettre à jour au vu des obligations RGPD/AI Act !
  • En savoir plus : The Washington Post

IBM et son IA biaisée de reconnaissance faciale (2020)

  • Le cas d’usage : utilisation de la technologie de reconnaissance faciale dans divers contextes, y compris le recrutement et la sécurité. Les systèmes de reconnaissance faciale présentaient des biais raciaux, affectant particulièrement l’identification des personnes non blanches.
  • La bonne pratique : éviter l’utilisation de technologies de reconnaissance faciale dans les processus RH et privilégier des méthodes d’évaluation plus neutres et objectives. Facile en France, c’est interdit aussi !
  • En savoir plus : New York Times

iTutor et la discrimination par l’âge (2023)

  • Le cas d’usage : utilisation d’un algorithme d’IA pour présélectionner les candidats à des postes d’enseignants en ligne. L’algorithme a été accusé de rejeter systématiquement des candidats plus âgés, conduisant à une discrimination par âge. iTutor a du payer une amende de plus de 300 millions de dollars à l’EEOC.
  • La bonne pratique : implémenter des contrôles réguliers de non-discrimination dans les algorithmes de recrutement, en vérifiant la distribution des résultats par tranches d’âge. Attention à ne pas tomber dans les statistiques interdites !
  • En savoir plus : Bloomberg

Starbucks et sa mauvaise prédiction du staffing avec l’IA (2024)

  • Le cas d’usage : utilisation d’un logiciel d’IA par Starbucks pour prédire le staffing des employés. L’outil a été publiquement critiqué pour les erreurs de staffing causées et non remises en question.
  • La bonne pratique : intégrer un mécanisme de feedback des employés et des managers dans le système de prédiction, permettant d’ajuster les prévisions en temps réel, et inclure des facteurs contextuels plus larges dans les prédictions.
  • En savoir plus : Bloomberg

Facebook et l’algorithme biaisé de ciblage des offres d’emploi (2019)

  • Le cas d’usage : utilisation d’algorithmes pour cibler les publicités d’emploi sur la plateforme Facebook. Les algorithmes ont été accusés de diffuser des offres d’emploi de manière discriminatoire en fonction de l’âge et du genre, et Facebook a du faire face à plusieurs procès sur le sujet en 2018 et 2019, année à laquelle l’entreprise a retiré l’algorithme.
  • La bonne pratique : utiliser des critères de ciblage basés uniquement sur les compétences et l’expérience, en excluant totalement les données démographiques sensibles. En France, un tel ciblage sur l’âge ou le genre n’est pas autorisé.
  • En savoir plus : Princeton University

Palantir et la discrimination raciale involontaire (2016)

  • Le cas d’usage : utilisation d’un logiciel de filtrage des candidatures. Le Département du Travail américain a accusé Palantir de discrimination systématique contre les candidats asiatiques depuis 2010, et l’affaire a fini devant les tribunaux fédéraux, avec menace de rupture des contrats avec le gouvernement.
  • La bonne pratique : mettre en place un système d’anonymisation des candidatures, en supprimant toutes les informations pouvant indiquer l’origine ethnique avant l’évaluation.
  • En savoir plus : US Department of Labor

Depuis, tous ces acteurs ont mené des actions correctives pour rétablir la légalité et l’éthicité de leurs processus. Et au vu de la mauvaise publicité, la plupart ont grandement renforcé leurs cadres éthiques et les contrôles systématiques, afin d’assurer une automatisation plus saine de leurs processus RH.

Si vous connaissez d’autres exemples avérés et documentés, n’hésitez pas à me les faire parvenir via ma messagerie Linkedin !

Les raisons de la lente adoption de l’IA par les RH

Au-delà de ces bad buzz qui peuvent agir comme des épouvantails, et tant mieux, il y a un contexte plus large à la lente adoption de l’IA par les RH. Je dirais même que ce contexte explique la plupart des bad buzz cités juste avant sur l’utilisation de l’IA dans des cas d’usage RH. J’ai récemment publié dans la Harvard Business Review un article détaillé pour mettre à plat ces 5 raisons. Je vous invite évidemment à lire l’article, et je vous propose sans attendre un avant goût des 5 défis majeurs à surmonter :

1) La confidentialité des données

C’est le nerf de la guerre ! Les données RH sont ultra-sensibles et le RGPD veille au grain. Et même l’IA Act qui vient se greffer dessus maintenant (j’ai écrit un article concret sur le sujet si ça peut vous aider). Pour faire court, il va falloir sérieusement muscler la sécurité pour éviter les fuites embarrassantes.

2) L’éthique et le juridique

On l’a vu plus haut avec certains des bad buzz, l’IA qui discrimine, non merci ! Il est crucial de minimiser les biais algorithmiques et garder l’humain dans la boucle. Le cadre légal est encore flou, mais ça va bouger vite, et surtout, il n’est pas interdit de se doter de bonnes pratiques et de ses propres cadres éthiques internes documentés !

3) La qualité des données et des pratiques

Garbage in, garbage out comme on dit… Les données RH sont souvent un vrai bazar, parce qu’elles touchent à des éléments humains difficiles à quantifier, ou simplement parce que la culture de la data n’est pas au rendez-vous (souvent ça d’ailleurs). Un gros chantier de nettoyage et de standardisation s’impose avant de lâcher l’IA dessus. J’ai écrit un article sur une approche concrète et structurée de l’usage de la data en RH. L’IA ne fera pas de magie si elle n’a pas les bonnes pratiques et les bonnes données déjà définies. Ne pas oublier que ChatGPT est la technologie la plus biaisée de l’histoire de l’humanité !

4) Les compétences en IA chez les RH

Avouons-le, il n’y a pas que des geeks en RH. Il va falloir se former, recruter des profils tech, et bien choisir ses partenaires pour ne pas se planter. Aujourd’hui, ces profils sont souvent à l’innovation ou à la DSI, et c’est bien. Mais la fonction RH va devoir s’équiper, car les données RH sont particulières et nécessitent plus de profondeur d’analyse. Aux Etats-Unis, on parle par exemple de ‘social data scientists’, des experts des algorithmes et de la data qui sont aussi spécialisés en psychologie ou sociologie.

5) La valeur ajoutée et l’adhésion culturelle

Chiffrer le ROI de l’IA en RH n’est pas une mince affaire, et il est souvent compliqué pour un DRH de convaincre son comité de direction d’allouer plus de budgets pour innover. De l’autre côté, convaincre tous les collaborateurs que l’IA ne va pas déshumaniser l’entreprise, c’est un sacré défi culturel. Entre l’enclume et le marteau, la fonction RH est sous forte pression avec l’IA, et c’est probablement la fonction de l’entreprise où ce sera le plus complexe et compliqué à mettre en place.

Mais ne désespérons pas ! Ces obstacles ne sont pas insurmontables. L’IA générative a un potentiel énorme pour transformer les RH. Il faut juste être patient, bien se préparer, et avancer étape par étape. Si vous en êtes là, je peux déjà vous proposer les trois premières étapes très concrètes pour vous lancer :

  • une charte éthique de l’IA en RH,
  • la revue FORMALISÉE de vos pratiques en bonnes pratiques prêtes pour le digital :)
  • une étude d’impact de l’IA sur la transformation des processus, rôles et métiers de la fonction RH, c’est IN-DIS-PEN-SABLE !!!

Bien entendu, en parallèle, il est très recommandé de mener des expérimentations, mais cela implique de définir en amont ce que vous cherchez à prouver et à mesurer. Une expérimentation se veut ‘apprenante’ plutôt que productive. Autrement dit, on essaie, on apprend et on ajuste, et quand on a suffisamment amélioré, on prépare le déploiement à plus grande échelle (tout en continuant de mesurer, ça on ne s’arrête jamais de le faire !).

Conclusion

Vous l’aurez compris, il est plus qu’important de prendre du recul sur l’adoption de l’IA dans les processus RH. Les exemples de bad buzz présentés plus tôt ne sont pas là pour décourager l’innovation, mais plutôt pour nous rappeler l’importance d’une approche réfléchie et éthique. L’IA n’est pas une simple technologie à déployer, c’est un changement de paradigme qui nécessite une transformation profonde des pratiques et des cultures d’entreprises. Les défis sont nombreux, de la gestion des données à l’éthique, en passant par le développement de nouvelles compétences, mais ils ne sont pas insurmontables.

L’avenir des RH ne se résume pas à un choix binaire entre l’humain et la machine. Il s’agit plutôt de trouver le juste équilibre, où l’IA vient augmenter et non remplacer les capacités humaines. Cette synergie homme-machine pourrait bien être la clé pour des RH plus efficaces, plus équitables et plus humaines, à la condition d’avancer en conscience et en responsabilité. Je ne le répèterai jamais assez, mais les choix qu’on fait aujourd’hui déterminent le futur que nous devrons gérer demain. Alors plus que jamais, il faut se projeter et prendre de la hauteur pour mieux comprendre les enjeux des choses concrètes que l’on pourrait bâtir aujourd’hui. Et méfiez-vous de ceux qui voudraient vous faire avancer trop vite sur l’IA avec des raccourcis et des tips, ça sent le bad buzz ;)

— —

[Article créé le 11 août 2024, par Jérémy Lamri avec le soutien de l’algorithme Claude 3.5 Sonnet pour la structuration et l’enrichissement, et GPT4o pour l’illustration. L’écriture est principalement la mienne, tout comme la plupart des idées de cet article].

— —

Suivez mon actualité avec Linktree

Si vous vous intéressez à la combinaison du web 3 avec les RH, et plus généralement aux enjeux sociétaux du futur du travail liés à l’émergence du métavers, de l’IA, de la blockchain, de l’informatique quantique et des autres technologies émergentes, je vous invite à vous abonner à la newsletter dédiée que je tiens sur le sujet, et à lire les articles que j’écris régulièrement :

--

--

Jeremy Lamri

CEO @Tomorrow Theory. Entrepreneur, PhD Psychology, Author & Teacher about #FutureOfWork. Find me on https://linktr.ee/jeremylamri