Sous la pression de Washington, la Commission européenne envisagerait d’accorder aux éditeurs un an de plus pour se mettre en conformité avec l’AI Act. Entré en vigueur le 2 août 2024, ce règlement doit s’appliquer pleinement le 2 août 2026.
L’occasion de revenir sur les implications de cette loi qui encadre l’utilisation de l’intelligence artificielle – et sur ce qu’elle change concrètement pour les professionnels des ressources humaines.
L’AI Act, c’est quoi ?
Adopté par le Parlement européen en mars 2024, l’AI Act est la première réglementation mondiale visant à encadrer le développement, la commercialisation et l’usage de l’intelligence artificielle dans l’Union européenne.
Son objectif : garantir une IA “de confiance”, respectueuse des droits fondamentaux, de la sécurité et de la transparence.
Le texte repose sur une logique de régulation par les risques. Concrètement, il classe les systèmes d’IA en quatre catégories :
- Risque inacceptable → systèmes interdits (ex : manipulation comportementale, notation sociale).
- Risque élevé → systèmes soumis à de fortes obligations de conformité.
- Risque limité → obligations d’information (l’utilisateur doit savoir qu’il interagit avec une IA).
- Risque minimal → libre utilisation (ex : filtres anti-spam, recommandations de contenu).
En pratique, l’AI Act ne s’oppose pas à l’innovation, mais impose un cadre clair et prévisible aux entreprises utilisant l’IA, qu’elles soient conceptrices ou utilisatrices – y compris dans les services RH.
Comment l’AI Act impacte les RH et les recruteurs ?
L’intelligence artificielle dans les RH n’est plus simplement une idée lointaine : elle s’invite déjà dans leur quotidien – tri automatisé des candidatures, scoring de profils, rédaction d’offres d’emploi, analyses de performances ou encore aide à la décision managériale.
Or, ces usages peuvent impliquer des traitements automatisés sensibles, notamment sur des données personnelles ou comportementales.
L’AI Act va donc imposer de nouvelles responsabilités aux professionnels RH :
- Identifier les outils d’IA utilisés en interne ou par les prestataires (ATS, jobboards, chatbots…).
- Vérifier si ces outils entrent dans la catégorie des systèmes “à haut risque”.
- Mettre en place des procédures d’audit, de documentation et de traçabilité.
- Assurer une transparence vis-à-vis des candidats et des salariés sur les usages de l’IA.
- Garantir la non-discrimination et l’équité des processus automatisés.
En clair, les RH deviennent co-acteurs de la conformité. Même s’ils ne développent pas les algorithmes, ils en sont responsables lorsqu’ils les utilisent. Naviguer entre innovation et réglementation va donc devenir la mission numéro une des professionnels des ressources humaines et du recrutement.
3 conseils pour se conformer à l’IA Act dès maintenant
L’AI Act introduit un nouveau cadre qui place la responsabilité humaine au centre de l’usage de l’intelligence artificielle. Pour les services RH, il s’agit de transformer les pratiques, pas simplement de cocher des cases. Voici trois leviers prioritaires pour se préparer dès aujourd’hui.
1. Former ses équipes à l’IA
→ Ce que dit l’IA Act
Le règlement insiste sur la “supervision humaine appropriée” des systèmes d’IA, en particulier pour les outils à haut risque. Les utilisateurs doivent être capables de comprendre, contrôler et corriger les décisions automatisées.
Les entreprises sont donc tenues d’assurer que leurs collaborateurs disposent de compétences suffisantes pour utiliser l’IA de manière sûre, éthique et transparente.
→ Comment les RH peuvent l’appliquer
- Identifier les collaborateurs exposés à l’usage de l’IA (recruteurs, gestionnaires, managers, DPO…).
- Mettre en place des formations internes sur les fondamentaux : comment fonctionne un modèle d’IA, quels sont les risques juridiques et éthiques, quelles obligations imposent le RGPD et l’AI Act.
- Intégrer un module sur l’IA responsable dans les parcours de formation RH ou managériale.
- Créer un référent IA au sein de l’équipe pour relayer les bonnes pratiques et assurer la veille réglementaire.
- Formaliser ces principes dans une charte interne sur l’usage de l’IA, signée par la direction et partagée avec l’ensemble des collaborateurs.
L’objectif : développer une culture de l’IA maîtrisée, où la technologie devient un outil d’aide à la décision – pas une boîte noire.
2. Encadrer les IA à haut risque
→ Ce que dit l’AI Act
Les systèmes utilisés dans le recrutement, la gestion du personnel ou l’évaluation de performance sont considérés comme “à haut risque”.
Ils doivent faire l’objet :
- d’une évaluation de conformité,
- d’un contrôle humain permanent,
- et d’une documentation complète sur leurs données, critères de décision et fonctionnement.
→ Comment les RH peuvent l’appliquer
- Cartographier tous les outils d’IA utilisés (ATS, analyse de CV, matching de profils, scoring interne,…).
- Vérifier si les fournisseurs ont obtenu une certification de conformité à l’AI Act.
- Inclure dans les contrats des clauses précises : auditabilité, traçabilité, explicabilité et gestion des biais.
- Imposer un contrôle humain dans les décisions : un recruteur doit pouvoir valider ou contester les suggestions de l’IA.
En pratique : il s’agit d’un changement de posture. Les RH ne sont plus de simples utilisateurs, mais des garants de la conformité et de l’équité algorithmique.
3. Aller vers plus de transparence
→ Ce que dit l’AI Act
La réglementation impose une transparence renforcée vis-à-vis des utilisateurs et des personnes concernées.
Toute personne doit être informée lorsqu’elle interagit avec un système d’intelligence artificielle, et pouvoir comprendre le rôle de cette IA dans une décision.
→ Comment les RH peuvent l’appliquer
- Ajouter des mentions explicites dans les offres d’emploi, formulaires ou mails : “Ce processus utilise un outil d’analyse automatisée.”
- Fournir des explications claires aux candidats ou salariés sur le fonctionnement des outils utilisés (ex : critères de tri, limites, supervision humaine).
- Permettre à toute personne d’exercer son droit de contestation en cas de décision influencée par une IA.
- Intégrer la transparence dans la communication employeur : valoriser l’usage éthique et responsable de l’intelligence artificielle.
Checklist pratique pour être en règle
Avant 2026, voici les points essentiels à valider :
✅ Cartographier tous les outils d’IA utilisés (internes, SaaS, partenaires).
✅ Évaluer leur niveau de risque selon les critères de l’AI Act.
✅ Documenter les traitements et décisions automatisées.
✅ Former les équipes RH, juridiques et IT à la réglementation.
✅ Mettre à jour les contrats fournisseurs pour inclure les clauses de conformité.
✅ Informer les salariés et candidats des usages de l’IA.
✅ Préparer un plan de conformité et désigner un référent interne.
📝 En résumé : ce qu’il faut retenir
- L’AI Act, c’est la première grande loi européenne qui encadre l’usage de l’intelligence artificielle – entrée en vigueur en août 2024, elle sera pleinement appliquée en août 2026.
- Elle repose sur une approche par niveau de risque : plus un système d’IA impacte les droits ou la sécurité, plus les obligations sont fortes.
- Les RH sont directement concernées : tri de candidatures, scoring, IA d’évaluation… tous ces outils devront être audités, documentés et transparents.
- Objectif clé : la confiance – informer les candidats et salariés, garantir un contrôle humain et éviter toute discrimination automatisée.
- À faire dès maintenant :
- Former les équipes RH à l’usage responsable de l’IA.
- Cartographier tous les outils IA utilisés.
- Mettre à jour les contrats fournisseurs.
- Créer un plan de conformité avant 2026.