AI Act : quels enjeux pour la fonction RH ?

Jeremy Lamri
9 min readJun 26, 2024

Chaque semaine, lintelligence artificielle (IA) fait des progrès dans ses capacités, et promet de changer la société et les modes de travail. Sans surprise, la fonction RH n’y échappe pas, et se retrouve même en première ligne de cette transformation. Avec l’adoption récente de l’AI Act par l’Union Européenne, premier cadre réglementaire complet sur l’IA au niveau mondial, les entreprises vont devoir s’adapter. Quels sont les enjeux et impacts concrets de cette législation pour les RH ? Comment en tirer parti pour améliorer les processus RH tout en restant éthique et conforme ? Décryptage.

AI Act : un cadre nécessaire pour une IA éthique et responsable

Commençons par le début : l’AI Act a été proposé par la Commission européenne en avril 2021 et a été définitivement adopté le 21 mai 2024. Il s’agit de la première réglementation complète sur l’IA au niveau mondial, visant à harmoniser les règles pour la mise sur le marché, la mise en service et l’utilisation des systèmes d’IA dans l’Union Européenne. Le processus d’adoption a inclus de nombreux débats et consultations, soulignant l’importance de cette régulation (European Commission, 2024).

On peut évoquer trois objectifs principaux pour cette initiative :

  • Protection des droits fondamentaux : dans la lignée du RGPD, garantir que les systèmes d’IA respectent les droits fondamentaux et les valeurs de l’Union Européenne.
  • Promotion de l’innovation : soutenir l’innovation tout en assurant une utilisation éthique de l’IA.
  • Création d’un cadre juridique harmonisé : établir des règles claires et harmonisées pour éviter la fragmentation du marché intérieur (European Commission, 2021).

En effet, l’IA soulève de nombreuses questions éthiques, notamment sur le respect des droits fondamentaux, la transparence des algorithmes ou les risques de discrimination. Avec près d’un quart des salariés utilisant déjà l’IA, souvent à l’insu de leur employeur (IFOP/LearnThings, 2024), un encadrement était nécessaire. L’AI Act se distingue ainsi par rapport à d’autres régulations internationales, comme celles des États-Unis ou de la Chine, en mettant un accent particulier sur la protection des droits fondamentaux et l’éthique. Par exemple, alors que les États-Unis adoptent une approche plus axée sur l’innovation et la compétitivité, l’AI Act de l’UE met l’accent sur la protection des droits des citoyens et la transparence.

L’AI Act vise à instaurer un cadre harmonisé pour le développement et l’utilisation de l’IA dans l’UE. Son approche basée sur les risques impose des exigences graduées selon le niveau de risque des systèmes d’IA :

  • 4-Risque inacceptable (ex : systèmes de notation sociale) : interdiction pure et simple
  • 3-Risque élevé (ex : recrutement, évaluation, surveillance sur le lieu de travail) : exigences strictes de transparence, traçabilité, surveillance humaine et évaluation des risques
  • 2-Risque limité (ex : chatbots) : obligations de transparence et d’information des utilisateurs
  • 1-Risque minimal (ex : filtres anti-spam) : pas d’obligation

AI Act : implications pour la Fonction RH

L’IA modifie l’organisation et l’exécution du travail. Les entreprises doivent encadrer l’utilisation de l’IA par les salariés, par exemple en intégrant des règles spécifiques dans le règlement intérieur ou la charte informatique. Une étude IFOP pour LearnThings (2024) a révélé que 22% des salariés ont déjà utilisé un outil d’IA dans le cadre professionnel, dont 55% sans en informer leur responsable. Une étude menée par Deloitte (2023) montre que 45% des entreprises européennes ont déjà réorganisé leurs processus de travail pour intégrer l’IA. Et même pour les processus RH, l’IA va changer la donne.

Recrutement

Le recrutement est l’un des domaines RH les plus matures en termes d’adoption de l’IA, mais aussi l’un des plus sensibles. Tri des CV, chatbots, entretiens vidéo automatisés, tests prédictifs… L’IA promet des processus plus rapides et efficients, et aussi très biaisés ! Amazon en a fait les frais en 2018 avec son outil de présélection des CV, entrainé sur des profils majoritairement masculins et reproduisant ce biais. Depuis, de nombreux éditeurs comme Textio ou TapRecruit proposent des solutions de débiaisage et d’anonymisation des données.

L’AI Act classe ces systèmes comme à haut risque, et soumises à des exigences renforcées :

  • Transparence sur les critères et méthodes d’évaluation ;
  • Débiaisage et représentativité des données d’entraînement ;
  • Possibilité de recours et d’intervention humaine ;
  • Évaluation régulière des risques et mesures correctives ;
  • Certification et enregistrement auprès des autorités.

Les entreprises doivent s’assurer que leurs outils de recrutement IA sont conformes aux exigences de l’AI Act pour éviter des amendes pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial (European Commission, 2024). Un véritable changement de paradigme qui va obliger les entreprises et éditeurs à revoir leurs pratiques. Mais aussi une opportunité de rendre les processus de recrutement plus équitables et diversifiés, parce que ce n’est pas comme si tout était rose dans ce domaine.

Évaluation de la performance

Autre domaine sensible, l’évaluation des performances et la surveillance des employés par l’IA. Si certains y voient un moyen d’objectiver les évaluations, d’autres craignent une déshumanisation et une sur-quantification du travail. L’AI Act fixe des limites claires :

  • Interdiction des systèmes d’IA déduisant les émotions ou l’état psychologique des employés, sauf exceptions (sécurité, recherche) ;
  • Interdiction des systèmes d’IA évaluant des caractéristiques personnelles sensibles (ethnicité, orientation politique ou sexuelle, etc.) ;
  • Obligation d’informer les employés de l’utilisation de l’IA pour les évaluer ou les surveiller ;
  • Droit de contester les décisions prises par l’IA et d’obtenir une intervention humaine.

Microsoft a dû revoir son système “Performance AI” suite aux inquiétudes des employés. Désormais, ces derniers ont plus de contrôle et de transparence sur les données et critères utilisés. L’enjeu pour les RH sera de trouver le bon équilibre entre le potentiel de l’IA (évaluations plus fréquentes et ciblées, détection des risques psychosociaux, etc.) et le respect des employés. Un changement de culture qui nécessitera beaucoup de pédagogie.

Formation & développement

Selon le Forum Économique Mondial, 50% des salariés auront besoin d’une reconversion d’ici 2025 du fait de l’automatisation et de l’IA. Un immense défi d’employabilité et de montée en compétences pour les RH. Mais l’IA peut aussi être une alliée précieuse, en personnalisant les parcours de formation. Des plateformes comme Coursera, EdX ou la récente Google AI Academy utilisent l’IA pour recommander des contenus adaptés à chaque apprenant, à son rythme.

Demain, les formations seront de plus en plus immersives et interactives grâce à l’IA générative (réalité virtuelle, mise en situation, coaching personnalisé, etc.). De quoi rendre l’apprentissage plus motivant et efficace. L’AI Act encourage ces innovations pédagogiques, tout en encadrant l’utilisation des données d’apprentissage. Les entreprises devront obtenir le consentement explicite des employés et leur garantir un droit d’accès et de rectification. La formation à l’IA elle-même sera un enjeu central pour démystifier la technologie, prévenir les mésusages et faire émerger une culture IA responsable à tous les niveaux de l’entreprise.

Selon un rapport du FMI (2023), 60 % des emplois dans les pays avancés seront impactés par l’IA. Selon Gartner (2023), l’IA pourrait créer 500 millions d’emplois d’ici 2033, mais ces emplois nécessiteront des compétences spécifiques que les travailleurs doivent acquérir. Les entreprises doivent anticiper ces changements et sécuriser les parcours professionnels des secteurs fortement impactés.

Prévention des risques psychosociaux

L’utilisation de l’IA peut entraîner de nouveaux risques psychosociaux, tels que la dépendance excessive à la technologie, l’isolement, la complexification du travail, et la perte de sens. Les entreprises doivent prendre des mesures pour limiter ces risques et assurer le bien-être de leurs employés (Agence Européenne pour la Santé et la Sécurité au Travail, 2023). Proposer des mesures concrètes, comme instaurer des pauses régulières et des sessions de déconnexion, peut aider à réduire la dépendance à la technologie (Smith & Anderson, 2018). Mais le sujet est bien plus vaste, puisqu’il touche à l’organisation du travail, et à la définition même de ce que signifiera travailler dans les années à venir…

Conclusion

L’IA va transformer en profondeur la fonction RH. Avec l’AI Act, l’Europe pose un cadre pour que cette transformation se fasse de manière éthique et responsable. Pour les entreprises, c’est l’occasion de repenser leurs processus RH en plaçant l’humain au centre. Cela passera par plus de transparence, d’explicabilité et de collaboration avec les employés dans la conception et le déploiement des solutions IA.

Les RH devront développer une véritable culture IA, en formant les collaborateurs mais aussi en s’entourant d’experts pour auditer leurs pratiques. Un nouveau métier émerge : celui de “Responsable éthique IA RH”. Car au-delà de la conformité légale, l’enjeu est de faire de l’IA un levier d’engagement, d’inclusion et de développement des talents. La technologie n’est qu’un moyen, l’humain doit rester la finalité.

Note : MERCI à Capstan Avocats, dont l’expertise juridique et les propos récents m’ont permis de consolider cet article.

Glossaire

  • IA (Intelligence Artificielle) : technologie dont l’objectif est de reproduire les capacités humaines à apprendre, réfléchir et interagir.
  • AI Act : règlement européen sur l’intelligence artificielle adopté en 2024.
  • RGPD (Règlement Général sur la Protection des Données) : réglementation européenne sur la protection des données personnelles.
  • Biais algorithmique : tendance des systèmes d’IA à reproduire ou amplifier les biais présents dans les données utilisées pour leur entraînement.
  • Systèmes d’IA à haut risque : systèmes d’IA identifiés par l’AI Act comme présentant des risques élevés pour les droits et la sécurité des individus.

Bibliographie

  • Agence Européenne pour la Santé et la Sécurité au Travail. (2023). Impact de l’IA sur la santé au travail. Retrieved from https://osha.europa.eu
  • Binns, R. (2018). Fairness in Machine Learning: Lessons from Political Philosophy. Proceedings of the 2018 Conference on Fairness, Accountability, and Transparency (FAT* ‘18). https://doi.org/10.1145/3287560.3287583
  • Bogen, M., & Rieke, A. (2018). Help Wanted: An Examination of Hiring Algorithms, Equity, and Bias. Upturn. Retrieved from https://www.upturn.org
  • Brynjolfsson, E., & McAfee, A. (2017). The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. W. W. Norton & Company.
  • Capstan Avocats. (2024). Les relations de travail face aux enjeux de l’intelligence artificielle.
  • Code du travail, art. L2312–8, II 4°.
  • Deloitte. (2023). The Future of Work: How Artificial Intelligence is Transforming the Workplace. Retrieved from https://www2.deloitte.com
  • European Commission. (2021). Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Retrieved from https://ec.europa.eu
  • European Commission. (2024). AI Act. Retrieved from https://ec.europa.eu
  • FMI. (2023). The Future of Jobs Report. Retrieved from https://www.imf.org
  • Gartner. (2023). AI and the Future of Work. Retrieved from https://www.gartner.com
  • Goodman, B., & Flaxman, S. (2017). European Union regulations on algorithmic decision-making and a “right to explanation”. AI Magazine, 38(3), 50–57. https://doi.org/10.1609/aimag.v38i3.2741
  • IEEE. (2023). Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Artificial Intelligence and Autonomous Systems. Retrieved from https://ethicsinaction.ieee.org
  • IFOP. (2024). Étude sur l’utilisation de l’IA au travail. Retrieved from https://www.ifop.com
  • Orange. (2023). How Orange Uses AI to Manage Talent. Retrieved from https://www.orange.com
  • Raghavan, M., Barocas, S., Kleinberg, J., & Levy, K. (2020). Mitigating Bias in Algorithmic Hiring: Evaluating Claims and Practices. Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency (FAT* ‘20). https://doi.org/10.1145/3287560.3287587
  • Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). “Why Should I Trust You?”: Explaining the Predictions of Any Classifier. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD ‘16). https://doi.org/10.1145/2939672.2939778
  • Smith, A., & Anderson, J. (2018). AI, Robotics, and the Future of Jobs. Pew Research Center. Retrieved from https://www.pewresearch.org
  • Voigt, P., & Von dem Bussche, A. (2017). The EU General Data Protection Regulation (GDPR): A Practical Guide. Springer.

— —

[Article créé le 26 juin 2024, par Jérémy Lamri avec le soutien de l’algorithme Claude 3 Opus pour la structuration et l’enrichissement, et GPT4o pour l’illustration. L’écriture est principalement la mienne, tout comme la plupart des idées de cet article].

— —

Suivez mon actualité avec Linktree

Si vous vous intéressez à la combinaison du web 3 avec les RH, et plus généralement aux enjeux sociétaux liés à l’émergence du métavers, de l’IA, de la blockchain, de l’informatique quantique et des autres technologies émergentes, je vous invite à vous abonner à la newsletter dédiée que je tiens sur le sujet, et à lire les articles que j’écris régulièrement :

--

--

Jeremy Lamri

CEO @Tomorrow Theory. Entrepreneur, PhD Psychology, Author & Teacher about #FutureOfWork. Find me on https://linktr.ee/jeremylamri