Sitemap

[DOSSIER] Les LLM enfin expliqués aux RH

16 min readMar 8, 2025

Chaque jour, un RH généraliste traite en moyenne 200 e-mails, passe en revue des dizaines de CV et s’efforce de détecter les talents de demain à travers des signaux subtils parfois difficiles à interpréter. Dans ce contexte où l’attention est devenue une ressource rare, les modèles de langage étendus (LLM) arrivent comme une bouffée d’oxygène. Mais pour exploiter pleinement leur potentiel, encore faut-il comprendre réellement comment ces IA lisent, analysent et interprètent le langage humain. Alors, comment fonctionnent ChatGPT et autres IA génératives ? Quelles sont les différences entre biais, erreurs et hallucinations ? Et quels sont les vrais cas d’usage à venir pour les RH ? Petite session de vulgarisation, pour plonger dans le coeur de la bête…

L’IA avant les IA génératives

Les modèles de langage géants (LLM) comme ChatGPT sont aujourd’hui des outils impressionnants, capables d’écrire, de traduire ou de résumer des textes complexes. Mais pour bien comprendre pourquoi ils représentent une révolution, il faut d’abord remonter à la base : qu’est-ce que l’intelligence artificielle, et quelles limites avons-nous dû surmonter avant d’en arriver là ?

L’intelligence artificielle, dans sa forme la plus simple, est une tentative de reproduire certaines capacités humaines à l’aide de machines. Autrement dit, c’est une technologie qui a vocation à apprendre, réfléchir et interagir de manière au moins aussi performante qu’un humain.

Imaginez un enfant qui apprend à reconnaître un chien en voyant plusieurs chiens. L’IA fonctionne un peu pareil : elle apprend à partir d’exemples puis se fait une généralité, ou modèle. En RH, cela pourrait ressembler à un recruteur qui a tellement l’habitude de recruter qu’il a en tête les profils précis qu’il recherche pour chaque type de poste.

Mais attention : une IA ne “comprend” pas au sens humain du terme. Elle repère des modèles dans les données, établit des probabilités et fait des prédictions en fonction de ce qu’elle a appris.

Jusqu’en 2017, les IA avaient beaucoup de mal à gérer des tâches complexes liées au langage. Pourquoi ? Parce que le langage humain est rempli de subtilités, de relations longues entre les mots, et de contextes changeants. Pour une IA, traiter une phrase comme “Le candidat qui vient d’être embauché a été recommandé par un autre collaborateur de l’équipe RH” demande de comprendre :

  • Qui est le candidat et qui est le collaborateur RH ?
  • Qui a recommandé le candidat et de quelle manière ?
  • Quel est le lien entre les deux ?

Avant 2017, deux types de modèles étaient principalement utilisés pour analyser le langage :

  1. Les Réseaux de Neurones Récurrents ou RNN (Recurrent Neural Networks) : ces modèles lisaient un texte mot par mot, en essayant de se souvenir du contexte précédent. Problème : plus la phrase était longue, plus ils avaient du mal à se rappeler des premiers mots. Imaginez un RH qui lit un long CV mais oublie les premières lignes avant d’arriver à la fin, ou même lire une lettre de motivation sans vous rappeler à quel candidat elle correspond, ni pour quel poste. Même si cela a du vous arriver, vous en conviendrez que ce n’est pas idéal pour la qualité du processus si cela se répète trop souvent !
  2. Les Cellules de longue mémoire à court terme ou LSTM (Long Short-Term Memory) : une version améliorée de la technologie des RNN, qui pouvait mémoriser un peu mieux les informations passées, notamment en stockant des éléments de contexte tout au long de l’analyse du texte. Mais là encore, les performances diminuaient avec des phrases longues ou complexes.

Ces approches étaient donc limitées :

  • Elles manquaient de précision sur le long terme.
  • Elles nécessitaient beaucoup de puissance de calcul, car elles analysaient le texte séquentiellement (un mot après l’autre).
  • Elles n’étaient pas capables de traiter plusieurs relations complexes en même temps.

Face à ces limites, la stratégie consistait souvent à augmenter la taille des modèles (plus de données, plus de couches dans les réseaux neuronaux). Cela fonctionnait jusqu’à un certain point, mais cela devenait vite inefficace et très coûteux en termes de temps d’entraînement et d’énergie. La communauté scientifique avait atteint un plateau : les modèles traditionnels étaient bons, mais pas assez intelligents pour répondre aux vrais besoins du langage naturel.

La révolution des modèles Transformers en 2017

Tout change avec l’article publié par une équipe de Google Brain. Ils posent une question provocante : et si on pouvait analyser une phrase en entier, d’un seul coup, sans avoir besoin de lire mot par mot ? Leur réponse : un mécanisme appelé l’attention.

Cet article scientifique est un peu le graal des temps modernes :

Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. Advances in Neural Information Processing Systems, 30, 5998–6008. https://doi.org/10.48550/arXiv.1706.03762

L’idée est simple : au lieu de traiter une phrase de manière séquentielle, le modèle regarde tous les mots en même temps et décide lesquels sont importants pour comprendre le sens global. Par exemple, dans une phrase comme “Le candidat a été recommandé par l’équipe RH”, l’IA comprend que “recommandé” est directement lié à “équipe RH”, et non au candidat lui-même. C’est comme si un recruteur lisait un CV et savait immédiatement quelles parties se répondent, sans avoir à tout relire dans l’ordre.

L’IA n’a ainsi plus besoin de tout lire mot par mot dans l’ordre, comme une personne qui lirait un livre de A à Z, elle se concentre sur les relations et la distance entre les mots. Les Transformers peuvent capter des relations subtiles, même entre des informations éloignées (par exemple, relier “gestion d’équipe” mentionné au début du CV avec “encadrement de 10 personnes” écrit à la fin).

L’arrivée des Transformers marque un tournant dans l’IA : au lieu d’imiter maladroitement la pensée humaine, elles ont trouvé une manière plus efficace et puissante de traiter l’information, ce qui a ouvert la voie à des outils comme ChatGPT d’OpenAI et les autres IA génératives, toutes basées sur les Transformers créés par Google. Et pour les RH, cela signifie des outils capables de gérer le langage humain avec une précision et une rapidité jamais vues auparavant.

Pour un RH, un Transformer, c’est comme avoir un assistant ultra-efficace. Par exemple quand vous analysez des centaines de CV, il identifie rapidement les candidats les plus pertinents, même si les informations clés sont disséminées. Finie l’époque où les mots clés étaient l’alpha et l’omega du CV. Grâce aux Transformers, le contexte et la richesse du CV compte plus que les mots. Si on suit le raisonnement, cela voudrait dire qu’il faudrait vraiment abandonner l’idée du CV synthétique en une page, pour favoriser au contraire les CV qui donnent du contexte pour chaque expérience et compétence.

Comprendre les Transformers, c’est comprendre l’évolution de son métier. Et vous voyez bien ici que ça n’a rien à voir avec le fait de savoir ‘prompter’, mais plutôt de savoir faire un CV adapté à cette nouvelle technologie. Ou alors, on peut aussi considérer que tout contenu est désormais un prompt, ce qui devient la réalité du monde moderne…

Les Transformers ont permis de passer d’IA “lentes et limitées” à des outils capables de traiter le langage humain de manière fluide, rapide, et intelligente. Pour les RH, cela signifie moins de tâches répétitives et plus d’analyse stratégique, avec des outils comme les ATS (systèmes de suivi des candidats) qui trient mieux, ou des chatbots qui dialoguent vraiment. Bref, c’est un cerveau supplémentaire, rapide et efficace, pour traiter vos données et vous aider à prendre de meilleures décisions, aux biais près !

Les biais, erreurs et hallucinations des LLM

Même si les modèles de langage comme ChatGPT semblent parfois étonnamment performants, ils ne sont pas parfaits, loin de là. Ils souffrent de biais, d’erreurs, et parfois même d’hallucinations qui peuvent poser problème dans un contexte RH ou organisationnel. Ces failles ne sont pas des accidents mais des conséquences directes de la façon dont ces modèles sont entraînés et de leur fonctionnement.

Les biais : la distorsion de réalité

Un biais, c’est une distorsion, une tendance systématique à favoriser ou défavoriser quelque chose, souvent de manière involontaire. Les LLM reproduisent (et parfois amplifient) les biais présents dans les données sur lesquelles ils ont été entraînés. Ces biais peuvent provenir de données d’entrainement contenant des stérétotypes et préjugés, comme c’est le cas des données présentes sur Internet, ou des textes historiques. Mais ils peuvent aussi venir d’une sous ou sur-représentation de certaines populations, ce qui influence les réponses, toujours basées sur des statistiques.

Par exemple, un modèle pourrait favoriser des profils masculins pour des métiers techniques, simplement parce que l’historique des données montre une surreprésentation des hommes dans ces domaines. Quelques exemples en RH

  • Lorsqu’un LLM évalue des descriptions de poste, il peut associer inconsciemment certains mots comme “leader” ou “autorité” à des hommes plutôt qu’à des femmes.
  • Lors d’un tri de CV, si l’IA n’est pas bien calibrée, elle pourrait reproduire les discriminations implicites présentes dans les données passées (écoles prestigieuses survalorisées, noms à consonance étrangère sous-évalués, etc.).

Les biais des LLM ne sont pas seulement une question technique, mais aussi profondément éthique et légale, surtout pour les DRH. En France, la discrimination à l’embauche est sévèrement sanctionnée : laisser une IA reproduire ou amplifier des biais (âge, genre, origine sociale ou ethnique…) expose l’entreprise à de lourds risques juridiques et réputationnels. L’utilisation responsable des LLM passe par une vigilance accrue et une stratégie active de contrôle, sous la responsabilité directe des RH. La base : y a t’il des algorithmes de contrôle éthique en place pour suivre le travail des IA ?

Les erreurs : quand l’IA se trompe tout simplement

Contrairement à ce que l’on pourrait penser, un LLM n’est pas infaillible. Il produit des réponses basées sur des probabilités et peut donc se tromper, parfois de manière flagrante. Ces erreurs peuvent se produire par un manque de compréhension réelle. Les LLM ne comprennent pas du tout le langage humain, elles transforment les mots en vecteurs mathématiques pondérés et reliés entre eux, et génèrent des réponses en fonction des schémas qu’ils ont vus, sans savoir si c’est vrai ou faux.

Une autre source d’erreur est souvent liée au manque de contexte spécifique. Par exemple, si une question demande une connaissance précise ou très actualisée, un LLM peut donner une réponse incorrecte ou hors sujet, qui lui paraitra correcte en fonction du contexte dont il dispose. Les LLM actuels n’ont pas encore la pleine capacité à demander des éléments de contexte avant de fournir une réponse, et ils peuvent donc parfois s’avancer sur base des informations dont ils disposent. Quelques exemples d’erreurs en RH :

  • Un LLM pourrait mal répondre à une question comme “Quels sont les critères d’éligibilité pour un congé parental dans cette entreprise ?” et donner une réponse générale mais erronée, car il n’a pas accès aux politiques internes, et ne connait pas ce cas spécifique. Il n’invente pas, mais se base sur une règle plus générale dont il a connaissance, et l’applique à ce cas-ci estimant que c’est pertinent.
  • Lors d’une analyse de texte, il pourrait confondre deux concepts proches (par exemple, leadership situationnel et leadership transformationnel), souvent en lien avec un entrainement moins poussé sur certains concepts, ce qui lui permet moins d’appréhender la nuance. Ici, on peut dire qu’il se mélange les pinceaux.

Pour résumer, une erreur se produit lorsque le modèle interprète mal une question ou fait une mauvaise estimation, mais sa réponse est basée sur des informations présentes dans les données d’entraînement ou dans le contexte fourni.

Les hallucinations : quand l’IA invente

Le terme hallucination désigne une situation où l’IA produit une réponse qui semble plausible mais est totalement fausse ou inventée. Ce terme est en fait courant dans le monde de l’IA, et c’est un terme tout à fait correct à utiliser, même s’il ne faut pas se précipiter dans son utilisation. Contrairement à une erreur classique, une hallucination paraît crédible et bien formulée, ce qui la rend difficile à détecter.

Pourquoi les hallucinations arrivent :

  • Manque de vérification interne : Un LLM n’a pas de mécanisme pour vérifier la véracité de ses réponses. Il génère simplement ce qui semble statistiquement probable.
  • Pression pour répondre : Même si l’information demandée n’existe pas, un LLM essaiera de produire une réponse, quitte à l’inventer.

Exemples en RH :

  • Un LLM pourrait inventer des informations sur un candidat ou une entreprise. Par exemple : “Ce candidat a travaillé chez Google en 2019,” alors que ce n’est pas vrai du tout, même si c’est crédible.
  • Lors de la création d’un rapport, l’IA pourrait citer une “étude” ou un “rapport officiel” qui n’existe pas, mais qui semble réaliste, simplement pour répondre quelque chose de satisfaisant pour l’utilisateur.

Une hallucination se produit donc lorsque le modèle produit une réponse plausible mais entièrement inventée, car il ne trouve pas d’information pertinente ou disponible pour répondre. Il “comble les trous” en générant quelque chose qui semble logique mais qui n’a aucun fondement. Cette tendance est liée davantage à l’algorithme de prédiction sémantique qu’au LLM lui-même. Autrement dit, ne trouvant pas l’info dans le modèle, le système génère une information crédible mais complètement inventée, pour assurer qu’une réponse soit fournie à l’utilisateur. Le problème ici est que le système ne vérifie pas sa production avant de l’envoyer à l’utilisateur.

Si à ce stade c’est encore flou pour vous, dites vous bien qu’une erreur provient d’une mauvaise interprétation de données existantes, alors qu’une hallucination correspond à la création pure et simple d’informations absentes de la base initiale.

Une amélioration continue déjà en cours

Dans les années à venir, les biais, erreurs et hallucinations des IA seront réduits grâce à des améliorations spécifiques pour chaque problème.

  • Pour les biais : Les données utilisées pour entraîner les IA seront mieux choisies et contrôlées, en s’assurant qu’elles représentent toute la diversité des populations et qu’elles ne contiennent pas de stéréotypes. De nouveaux outils seront capables de repérer et corriger ces biais automatiquement, avant même que le modèle soit utilisé.
  • Pour les erreurs : Les IA seront mieux guidées par des règles claires et pourront vérifier leurs réponses en s’appuyant sur des bases de données actualisées et fiables. Cela permettra d’éviter qu’elles donnent des réponses incorrectes par manque d’information ou mauvaise interprétation.
  • Pour les hallucinations : Les modèles incluront des systèmes de validation qui empêcheront l’IA d’inventer des informations. Par exemple, si une réponse n’est pas vérifiable ou manque de source, l’IA pourra signaler son incertitude au lieu de produire une réponse fictive.

En combinant des données de meilleure qualité, des vérifications automatiques, et une supervision humaine, les IA deviendront plus fiables, précises et responsables dans leur utilisation quotidienne, notamment pour les RH :).

Détail pas à pas d’un cas d’usage IA RH

Nous avons analysé plus de 20 cas d’usage RH, de ceux qui sont actionnables dès aujourd’hui, à ceux qui ne le seront que dans quelques années, en passant par ceux dont vous allez dépendre entièrement de votre éditeur SIRH. Ci-dessous, je ne peux vous en présenter qu’un seul, mais ça vous donne déjà un aperçu de comment faire, et de ce à quoi il faut prêter attention !

Rédaction d’offres d’emploi

Vous êtes déjà débordé par vos recrutements, et rédiger une annonce d’emploi devient souvent une corvée réalisée dans l’urgence. Et si vous pouviez non seulement gagner du temps, mais aussi attirer des candidats plus pertinents avec une annonce claire et engageante ? Les LLM permettent de générer rapidement des annonces attractives et adaptées au poste ciblé. Ils peuvent inclure automatiquement des compétences clés, un ton engageant et des éléments spécifiques au secteur d’activité ou au site d’annonces.

Pourquoi utiliser un LLM pour rédiger une offre d’emploi ? Pour l’entreprise, c’est assez évident : une annonce claire, engageante et inclusive attire davantage de candidats qualifiés. Pour vous, on peut citer notamment le gain de temps : un recruteur passe souvent 1 à 2 heures à rédiger une annonce quand il le fait bien. Avec un LLM, cela peut être réduit à 10–15 minutes, tout en obtenant une structure claire et engageante. Et surtout, le recruteur n’a pas à partir de zéro ou chercher des formulations parfaites où on challenge chaque mot ; le modèle propose une base solide à ajuster, ce qui allège la charge cognitive, et assure en même temps d’éviter l’offre bateau faite à la va-vite.

L’action technique des LLM sur ce cas d’usage : le modèle identifie des structures types d’offres d’emploi issues de ses données d’entraînement et personnalise ces modèles en fonction des informations fournies, comme le poste, les compétences requises ou le lieu de travail. Si un exemple d’annonce réussie est fourni comme point de départ, le résultat sera encore plus précis. Sans exemple, le format restitué correspondra à ce que le LLM pense être une bonne pratique d’offre d’emploi, donc plutôt ‘US’ si le LLM a été entrainé avec des données essentiellement locales. A vos risques et périls !

Défauts prévisibles

  • Erreurs : Risque de proposer des formulations maladroites ou ambiguës, notamment si les informations fournies sont incomplètes ou mal structurées. Cela peut venir d’une mission mal formulée ou d’une compétence mal interprétée (ex. : confondre React avec une autre technologie). Pour éviter les erreurs, relire chaque mission et vérifier les exigences techniques en les croisant avec la fiche de poste.
  • Biais : L’IA peut reproduire des stéréotypes implicites présents dans ses données d’entraînement, comme utiliser un langage genré ou favorisant certains profils. Parfois, les biais peuvent être amplifiés par vos propres tournures (ex. : “Nous recherchons un jeune leader dynamique.”). Une bonne pratique est d’appliquer un filtre inclusif avant la finalisation, en demandant explicitement au LLM de reformuler l’annonce pour s’assurer qu’elle respecte la diversité.
  • Hallucinations : Ajout d’exigences non spécifiées (ex. : “minimum 5 ans d’expérience”) ou d’informations fictives sur l’entreprise ou le poste. Pour éviter une hallucination oubliée dans le texte final, pensez à demander à l’IA de comparer systématiquement le texte généré avec le brief initial pour détecter tout ajout non souhaité.

TUTORIEL — Étapes concrètes pour prendre en main cet usage :

  1. Préparer les données : créez un brief avec les éléments essentiels : intitulé du poste, département, localisation, compétences clés, missions principales, conditions spécifiques (ex. : télétravail, avantages). Une astuce est de fournir une annonce précédente réussie comme exemple, et de demander au LLM de lister les éléments qui la composent, cela vous fera gagner du temps.
  2. Interagir avec le LLM : construisez une demande claire, par exemple :
    “A partir des éléments clés listés précédemment, rédige une offre d’emploi pour un poste de Responsable Marketing basé à Paris. Utilise un ton dynamique et inclusif, liste 3 missions principales et 5 compétences clés, et précise que le télétravail partiel est possible. Si le modèle génère une annonce trop générique, affinez votre demande en précisant le ton souhaité (ex. : formel ou dynamique) ou en ajoutant des détails supplémentaires. Si la réponse est générique, le problème vient de votre demande, l’IA travaillant avec ce qu’on lui donne !
  3. Évaluer et ajuster le résultat : vérifiez la clarté et la précision du contenu. Pour cela, demandez au LLM “analyser la clarté et la précision du contenu, et proposer des améliorations”. Relisez pour détecter les éventuels erreurs, biais ou hallucinations (ex. : mention d’un diplôme inutile ou d’une exigence excessive). Apportez les ajustements nécessaires pour aligner l’annonce sur vos besoins.
  4. Finaliser et tester : demandez au LLM de reformuler l’annonce pour un style plus inclusif ou plus adapté au canal choisi (par exemple : LinkedIn). Enfin, demandez au LLM de comparer le texte généré avec le brief initial pour détecter tout ajout non souhaité (hallucination). Publiez l’annonce et suivez les retours (candidatures reçues, qualité des profils) pour mesurer l’efficacité.

Précautions à prendre

  • Relire systématiquement chaque annonce générée pour s’assurer de sa clarté et de son alignement avec les besoins réels du poste.
  • Rechercher et corriger toute formulation discriminatoire ou stéréotypée.
  • Comparer le texte généré avec la fiche de poste pour vérifier qu’aucun détail inventé ou erroné ne s’y est glissé.
  • L’astuce des pros : Demandez au LLM de “vérifier si l’annonce est légale en droit français et inclusive et, si nécessaire, de la reformuler en fonction des principes de diversité et d’inclusion.”

Pour les recruteurs débutants, commencez avec des prompts simples et testez plusieurs variantes. Par exemple, demandez une annonce “formelle” puis une “dynamique”. Surtout, testez différentes longueurs pour voir laquelle suscite le plus d’engagement. Avec un peu d’expérimentation, l’écriture d’annonces attractives deviendra un automatisme, tout en gardant un contrôle humain sur la qualité finale.

Bien sûr, pour passer en mode pro, il s’agira de bien mesurer l’apport de l’IA sur ce processus. Voici quelques indicateurs possibles, spécifiques à la mesure de performance IA vs manuel.

  • Taux de conversion : nombre de candidatures pertinentes reçues vs nombre total de vues de l’annonce.
  • Temps économisé : avant/après utilisation du LLM.
  • Qualité des profils : analyse du pourcentage de profils ‘dans la cible’ par rapport au nombre total de candidatures, avant/après utilisation du LLM.

Ces cas d’usage montrent que les LLM peuvent déjà être des alliés précieux pour les RH, en automatisant des tâches fastidieuses et en accélérant la prise de décision. Mais comme je le précise à chaque fois, il est essentiel d’intégrer une supervision humaine rigoureuse pour pallier les erreurs, biais et hallucinations, et garantir une utilisation éthique et pertinente de ces outils. Avec des pratiques bien structurées, ces outils permettent de libérer du temps pour se concentrer sur des missions à plus forte valeur ajoutée, comme l’accompagnement humain et la stratégie.

Conclusion

Les modèles de langage étendus (LLM) ne sont pas simplement une innovation technologique supplémentaire : ils représentent désormais un enjeu géopolitique majeur. Alors que les puissances mondiales rivalisent pour imposer leur leadership technologique, maîtriser les subtilités des LLM devient une compétence stratégique pour les entreprises et, au-delà, pour les nations.

Pour les DRH, cette révolution technologique est donc aussi une invitation à prendre conscience de leur rôle clé : préparer les talents à naviguer dans un monde où la souveraineté technologique influencera directement la souveraineté économique et sociale. Apprendre à utiliser ces modèles avec discernement et responsabilité, c’est contribuer à façonner un avenir du travail qui soit non seulement performant, mais également éthique et humainement soutenable, dans un contexte international de plus en plus compétitif et incertain.

— —

[Article créé le 8 mars 2025, par Jérémy Lamri avec le soutien des modèles Claude 3.7, Perplexity, GPT 4.5 et o3-mini pour la structuration et l’enrichissement, et GPT 4.5 et Napkin pour l’illustration. L’écriture est principalement la mienne, tout comme la plupart des idées de cet article].

— —

Suivez mon actualité avec Linktree

Si vous vous intéressez aux enjeux technologiques et sociétaux du futur du travail, je vous invite à vous abonner à la newsletter dédiée que je tiens sur le sujet, et à consommer les contenus que je produis régulièrement :

--

--

Jeremy Lamri
Jeremy Lamri

Written by Jeremy Lamri

CEO @Tomorrow Theory. Entrepreneur, PhD Psychology, Author & Teacher about #FutureOfWork. Find me on https://linktr.ee/jeremylamri

No responses yet