L’IA Act (ou Règlement sur l’intelligence artificielle) est une législation de l’Union européenne visant à encadrer le développement, la commercialisation et l’utilisation des systèmes d’intelligence artificielle sur le territoire européen. Adopté en 2024, il s’agit du premier cadre réglementaire au monde spécifiquement dédié à l’IA.

Pourquoi l’IA Act a-t-il été mis en place ?

Face à la montée en puissance de l’intelligence artificielle dans tous les secteurs – santé, finance, éducation, sécurité, ressources humaines – l’Union européenne a souhaité instaurer un cadre clair et sécurisé. L’IA Act vise notamment à :

  • Prévenir les dérives liées à l’usage de l’IA (discriminations, manipulation, surveillance de masse…)
  • Harmoniser les règles entre les États membres
  • Encourager la confiance dans les technologies IA développées en Europe
  • Protéger les données personnelles et la dignité humaine

Il s’inscrit dans une volonté stratégique de faire de l’Europe une zone de référence pour une IA éthique, transparente et fiable.

Quels sont les niveaux de risque définis par l’IA Act ?

Le règlement classe les systèmes d’IA en quatre niveaux de risque, chacun soumis à un niveau de régulation plus ou moins strict :

  1. Risque inacceptable : totalement interdit (ex. : systèmes de notation sociale, manipulation cognitive exploitant des vulnérabilités)
  2. Risque élevé : strictement encadré (ex. : IA utilisée dans les domaines sensibles comme le recrutement, l’éducation, la justice)
  3. Risque limité : obligations de transparence (ex. : chatbot qui doit signaler qu’il est une IA)
  4. Risque minimal : usage libre sans obligation spécifique (ex. : filtres anti-spam)

Cette classification permet aux entreprises de s’adapter à leurs obligations en fonction de l’usage de l’IA qu’elles proposent.

Qui est concerné par l’IA Act ?

Le règlement s’applique à tous les acteurs qui développent, déploient ou utilisent des systèmes d’IA au sein de l’UE, qu’ils soient européens ou non. Cela inclut :

  • Les éditeurs de solutions IA (développeurs, start-ups, laboratoires de R&D)
  • Les entreprises utilisatrices (ex. : pour trier des CV ou automatiser la relation client)
  • Les distributeurs et intégrateurs de systèmes IA
  • Les organismes publics ou privés exploitant l’IA

Des sanctions pouvant aller jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial sont prévues en cas de non-conformité.

Quelles implications pour les entreprises ?

L’entrée en vigueur de l’IA Act oblige les organisations à :

  • Cartographier leurs usages de l’IA
  • Évaluer le niveau de risque associé à chaque système
  • Mettre en place des mesures de conformité (documentation technique, surveillance humaine, auditabilité, etc.)
  • Former les équipes aux principes éthiques de l’IA
  • Anticiper les coûts liés à la mise en conformité

Ce règlement devient un critère stratégique dans le développement de projets technologiques ou de partenariats en lien avec l’IA.

À différencier de :

  • Le RGPD, qui encadre spécifiquement la protection des données personnelles
  • Le Digital Services Act (DSA), qui concerne les plateformes en ligne et la modération des contenus
  • La charte éthique de l’IA, non contraignante, mais qui propose des principes directeurs
  • Les labels IA responsables, qui restent volontaires mais complémentaires

Pour aller plus loin, consulter cet article de notre blog :

IA et RH en 2024

Quels sont les enjeux de l’IA dans le domaine RH ?

Des algorithmes puissants, un mode d’apprentissage quasi automatique ? Les promesses de l’IA sont alléchantes et révolutionnent déjà nos technologies et notamment les outils RH....

ATS Recrutement

ATS : Comment va évoluer votre recrutement ?

Dans le domaine des ressources humaines, les ATS (Applicant Tracking System) deviennent des outils indispensables pour gérer efficacement les candidatures et optimiser l’expérience candidat. Que...