L'AI Act classe les systèmes d'IA en 4 niveaux de risque. Recrutement, crédit, santé : découvrez si vos outils IA sont considérés à haut risque.
Le Règlement européen sur l’intelligence artificielle (Règlement 2024/1689) repose sur un principe fondamental : les obligations sont proportionnelles au niveau de risque. Plus un système d’IA peut affecter la vie, la santé, les droits fondamentaux ou la sécurité des personnes, plus les exigences sont strictes.
Cette approche graduée distingue l’AI Act des réglementations plus binaires. Elle permet de ne pas freiner l’innovation sur les usages à faible risque, tout en encadrant fermement les applications les plus sensibles.
Considérant 26 — Règlement (UE) 2024/1689
Les systèmes d’IA présentant un niveau de risque élevé pour la santé, la sécurité ou les droits fondamentaux des personnes physiques devraient être soumis à des exigences strictes avant de pouvoir être mis sur le marché de l’Union.
Certains usages de l’IA sont purement et simplement interdits (Article 5). Le scoring social, la manipulation subliminale, l’exploitation des vulnérabilités des personnes et la reconnaissance biométrique en temps réel dans les espaces publics (sauf exceptions) sont proscrits depuis le 1er février 2025.
C’est la catégorie qui concerne le plus grand nombre d’entreprises. Les systèmes d’IA à haut risque sont définis aux Articles 6 et 7 et listés en détail dans l’Annexe III du règlement. Les obligations associées sont substantielles : évaluation de conformité, documentation technique, contrôle humain, gestion des risques, gouvernance des données.
Les systèmes comme les chatbots, les générateurs de contenu (deepfakes, textes) ou les systèmes de reconnaissance d’émotions non couverts par l’interdiction sont soumis à des obligations de transparence. L’utilisateur doit savoir qu’il interagit avec une IA ou que le contenu a été généré par une IA.
La grande majorité des systèmes d’IA : filtres anti-spam, recommandations de produits, correcteurs orthographiques. L’AI Act n’impose pas de contraintes spécifiques, bien que le respect de l’Article 4 sur la maîtrise de l’IA s’applique quand même à tous les déployeurs.
L’Annexe III du règlement dresse la liste des domaines dans lesquels un système d’IA est considéré à haut risque. Voici les cas concrets qui concernent la plupart des entreprises.
C’est le domaine qui surprend le plus d’entreprises. L’Annexe III, point 4 vise les systèmes d’IA utilisés dans :
Annexe III, point 4 — Règlement (UE) 2024/1689
L’emploi, la gestion de la main-d’œuvre et l’accès à l’emploi indépendant, notamment pour le recrutement et la sélection des personnes, pour la prise de décisions concernant les conditions des relations de travail, la promotion et la résiliation, et pour l’attribution des tâches, le suivi ou l’évaluation des performances et du comportement des personnes.
Concrètement, sont considérés à haut risque :
Si votre service RH utilise un outil de tri automatique des CV ou un chatbot de recrutement, il s’agit probablement d’un système à haut risque au sens de l’AI Act.
📄IA pour les RH : guide complet de transformation des métiers RH→L’Annexe III, point 5(b) couvre les systèmes d’IA utilisés pour :
Toute banque ou assurance utilisant un modèle IA pour décider d’accorder ou de refuser un crédit, ou pour fixer une prime d’assurance, est concernée. La détection de fraude est explicitement exclue du haut risque — mais attention, les systèmes de scoring qui vont au-delà de la simple détection peuvent y tomber.
L’Annexe III, point 1 englobe les systèmes d’IA qui sont des dispositifs médicaux ou des accessoires de dispositifs médicaux au sens des règlements européens sur les dispositifs médicaux. Cela inclut :
L’Annexe III, point 3 vise les systèmes d’IA utilisés pour :
L’Annexe III, points 6, 7 et 8 couvrent :
L’Annexe III, point 2 couvre les composants de sécurité de la gestion et de l’exploitation des infrastructures numériques critiques, du trafic routier et de l’approvisionnement en eau, gaz, chauffage et électricité.
L’Annexe III, point 7 inclut les systèmes utilisés pour l’évaluation des risques de migration irrégulière, l’examen des demandes de visa et de titres de séjour, et l’identification des personnes dans le cadre de la migration.
Si un ou plusieurs de vos systèmes d’IA sont classés à haut risque, voici ce que le règlement exige :
Avant la mise sur le marché ou la mise en service, le système doit faire l’objet d’une évaluation de conformité couvrant :
Les entreprises qui utilisent des systèmes d’IA à haut risque (déployeurs) ont des obligations propres :
La première étape de la mise en conformité est de savoir exactement quels systèmes d’IA vous utilisez et dans quelle catégorie ils se situent.
Listez tous les outils intégrant de l’IA dans votre organisation. N’oubliez pas :
Pour chaque outil identifié, déterminez :
Pour chaque système à haut risque, comparez votre situation actuelle aux exigences des Articles 9 à 15 et de l’Article 26. Identifiez les écarts et priorisez les actions correctives.
Constituez un dossier de conformité par système, incluant la classification, la documentation technique, les évaluations réalisées et les mesures de contrôle mises en place. Cette documentation structurée sera votre référence en cas d’audit.
Pour chaque système à haut risque, les personnes chargées du contrôle humain doivent avoir les compétences nécessaires (Article 14). Cela rejoint l’obligation de l’Article 4 sur la maîtrise de l’IA, mais avec un niveau d’exigence plus élevé : ces personnes doivent comprendre les capacités et limitations spécifiques du système qu’elles supervisent.
Les modèles d’IA à usage général (comme GPT-4, Claude, Gemini) font l’objet de dispositions spécifiques (Articles 51 à 56). Lorsqu’un modèle à usage général est intégré dans un système d’IA classé à haut risque, les obligations de haut risque s’appliquent au système dans son ensemble — même si le modèle sous-jacent est, en soi, un outil généraliste.
Cela signifie qu’utiliser ChatGPT pour répondre aux candidats dans un processus de recrutement peut transformer un outil “généraliste” en composant d’un système à haut risque.
Ce que ça implique pour vous
La classification de vos systèmes d’IA n’est pas un exercice théorique — c’est la pierre angulaire de votre conformité à l’AI Act. Si vous utilisez l’IA dans le recrutement, l’évaluation des performances, le scoring de crédit ou l’aide au diagnostic, vous opérez probablement des systèmes à haut risque. Chaque système concerné exige une évaluation de conformité, une documentation technique, un contrôle humain effectif et des personnes formées pour l’assurer. Commencez par l’inventaire. Aujourd’hui.