Article 4 : l'obligation de former tous vos collaborateurs à l'IA

L'AI Act impose aux entreprises de garantir un niveau suffisant de maîtrise de l'IA pour tous les collaborateurs. Qui est concerné, quelles preuves fournir, quelles sanctions.

Ce que dit réellement l’Article 4

L’Article 4 du Règlement européen sur l’intelligence artificielle (Règlement 2024/1689, dit “AI Act”) est souvent résumé à tort comme une simple recommandation. C’est en réalité une obligation juridique contraignante, applicable depuis le 2 août 2025.

Article 4Règlement (UE) 2024/1689

Les fournisseurs et les déployeurs de systèmes d’IA prennent des mesures pour garantir, dans toute la mesure du possible, un niveau suffisant de maîtrise de l’IA pour leur personnel et les autres personnes s’occupant du fonctionnement et de l’utilisation des systèmes d’IA pour leur compte, en tenant compte de leurs connaissances techniques, de leur expérience, de leur éducation et de leur formation, ainsi que du contexte dans lequel les systèmes d’IA sont destinés à être utilisés, et en tenant compte des personnes ou des groupes de personnes sur lesquels les systèmes d’IA sont destinés à être utilisés.

Ce texte est dense. Décomposons-le.

Qui est concerné ?

L’Article 4 vise deux catégories d’acteurs :

Les fournisseurs (providers)

Toute entité qui développe un système d’IA ou un modèle d’IA à usage général et le met sur le marché ou en service sous son propre nom ou sa propre marque. Cela inclut les éditeurs de logiciels, les startups IA, les entreprises qui développent des outils internes basés sur l’IA.

Les déployeurs (deployers)

Toute personne physique ou morale qui utilise un système d’IA sous sa propre autorité. Concrètement, cela inclut toute entreprise qui utilise des outils IA dans ses opérations courantes — de ChatGPT à un système de scoring automatisé.

C’est le point crucial : vous n’avez pas besoin de développer de l’IA pour être concerné. Si vos équipes utilisent des outils d’IA — même des outils tiers comme des assistants conversationnels, des outils de génération de contenu ou des systèmes d’analyse automatisée — vous êtes un déployeur au sens du règlement.

En pratique, cela signifie que la quasi-totalité des entreprises européennes est concernée.

Que signifie “niveau suffisant de maîtrise de l’IA” ?

Le règlement ne prescrit pas un programme de formation standardisé. Il exige un niveau suffisant de maîtrise de l’IA (AI literacy), défini à l’Article 3(56) comme :

Article 3, paragraphe 56Règlement (UE) 2024/1689

Les compétences, les connaissances et la compréhension qui permettent aux fournisseurs, aux déployeurs et aux personnes concernées, compte tenu de leurs droits et obligations respectifs dans le cadre du présent règlement, de procéder à un déploiement des systèmes d’IA en connaissance de cause, ainsi que de prendre conscience des possibilités et des risques que comporte l’IA et des préjudices qu’elle peut causer.

Concrètement, mesurer le niveau de compétence de vos collaborateurs implique de vérifier qu’ils comprennent :

  • Ce qu’est un système d’IA et comment il fonctionne à un niveau adapté à leur rôle
  • Les risques associés à l’utilisation de l’IA dans leur contexte professionnel
  • Les bonnes pratiques : vérification des résultats, protection des données, signalement des anomalies
  • Les limites des systèmes qu’ils utilisent au quotidien

Le niveau attendu n’est pas uniforme. L’Article 4 précise que la formation doit tenir compte des “connaissances techniques, de l’expérience, de l’éducation et de la formation” de chaque personne, ainsi que du “contexte dans lequel les systèmes d’IA sont destinés à être utilisés”. Un développeur IA et un chargé de clientèle n’auront pas les mêmes besoins de montée en compétences.

La question centrale : comment prouver la conformité ?

Le règlement impose de “prendre des mesures” pour garantir ce niveau de maîtrise. En cas de contrôle ou de litige, l’entreprise devra démontrer qu’elle a effectivement agi. C’est là que la notion de preuve documentée devient essentielle.

Ce que les autorités attendront

Même si les modalités précises d’audit ne sont pas encore toutes définies par les autorités nationales compétentes, plusieurs éléments de preuve se dessinent comme indispensables :

  1. Un inventaire des systèmes d’IA utilisés dans l’organisation, classés par niveau de risque
  2. Un plan de formation adapté aux différents profils de collaborateurs
  3. Des preuves de participation aux formations (registres, attestations, historiques)
  4. Une évaluation du niveau de compétence avant et après la formation
  5. Un suivi régulier montrant que la formation n’est pas un événement ponctuel mais un processus continu

Le Considérant 20 du règlement apporte un éclairage supplémentaire :

Considérant 20Règlement (UE) 2024/1689

Les mesures de maîtrise de l’IA […] devraient être conçues et, le cas échéant, adaptées au contexte dans lequel les systèmes d’IA sont utilisés. […] Les fournisseurs et les déployeurs peuvent également veiller à ce que le personnel technique dispose de la formation et des compétences nécessaires.

Autrement dit, une formation générique distribuée une seule fois ne suffira pas. Le règlement attend une approche contextualisée, mesurable et continue.

📄AI Act Article 4 : l'obligation de formation IA expliquée

Le calendrier : c’est déjà en vigueur

Contrairement à d’autres dispositions de l’AI Act qui s’appliquent progressivement, l’Article 4 est applicable depuis le 2 août 2025. Le calendrier complet :

DateDisposition
1er février 2025Interdiction des pratiques IA prohibées (Article 5)
2 août 2025Article 4 — Obligation de maîtrise de l’IA
2 août 2025Obligations pour les modèles d’IA à usage général
2 août 2026Obligations pour les systèmes d’IA à haut risque

Les entreprises qui n’ont pas encore initié de démarche de formation de l’ensemble des collaborateurs sont donc techniquement déjà en retard.

Comment structurer sa mise en conformité

Étape 1 : Cartographier les usages IA

Avant de former, il faut savoir ce qui est utilisé. Réalisez un inventaire exhaustif de tous les systèmes d’IA déployés dans votre organisation. Incluez les outils officiels, mais aussi les usages informels (le fameux “shadow IT” de l’IA).

Étape 2 : Identifier les populations concernées

Tous les collaborateurs ne sont pas exposés de la même façon. Segmentez par :

  • Niveau d’interaction avec les systèmes d’IA (utilisateur quotidien, occasionnel, indirect)
  • Niveau de risque des systèmes utilisés (scoring, recrutement, service client)
  • Connaissances techniques préalables

Étape 3 : Définir un référentiel de compétences

Établissez clairement ce que chaque profil doit savoir. Ce référentiel servira de base pour évaluer le niveau suffisant de maîtrise de l’IA attendu par le règlement.

Étape 4 : Former et évaluer

Déployez des parcours de formation adaptés et mesurez les résultats. Un score de maîtrise individuel ou par équipe permet de suivre la progression et de démontrer l’effort de conformité.

Étape 5 : Documenter en continu

Constituez un dossier de conformité incluant : programmes de formation, taux de participation, résultats des évaluations, mises à jour régulières. Cette preuve documentée sera votre meilleur allié en cas de contrôle.

📄Audit IA en entreprise : guide pratique étape par étape

Les sanctions en cas de non-conformité

L’Article 4 relève de la catégorie intermédiaire de sanctions prévues par l’AI Act. Le non-respect peut entraîner des amendes pouvant atteindre 15 millions d’euros ou 3 % du chiffre d’affaires annuel mondial (le montant le plus élevé étant retenu).

Mais au-delà des amendes, le risque réputationnel est considérable. Ne pas avoir formé ses équipes à l’IA alors que la réglementation l’exige — c’est un signal d’immaturité organisationnelle que ni les clients, ni les régulateurs, ni les partenaires ne toléreront longtemps.

Ce qui distingue l’Article 4 des autres obligations

L’Article 4 est unique dans le paysage réglementaire européen pour plusieurs raisons :

  • Il concerne les personnes, pas les systèmes. La plupart des obligations de l’AI Act portent sur les caractéristiques techniques des systèmes d’IA. L’Article 4, lui, porte sur les compétences des êtres humains qui les utilisent.
  • Il est transversal. Quel que soit le niveau de risque de vos systèmes IA, l’obligation de maîtrise s’applique.
  • Il est déjà en vigueur. Pas de période de transition supplémentaire.

C’est aussi la disposition la plus accessible pour démarrer sa mise en conformité avec l’AI Act. Avant même de classifier vos systèmes ou de documenter vos modèles, vous pouvez — et devez — commencer par la montée en compétences de vos équipes.

Ce que ça implique pour vous

L’Article 4 fait de la formation de l’ensemble des collaborateurs une obligation légale, pas une option. Les entreprises doivent pouvoir démontrer, preuves à l’appui, que leur personnel atteint un niveau suffisant de maîtrise de l’IA — avec des évaluations mesurables, une documentation rigoureuse et un suivi continu. L’obligation est en vigueur depuis le 2 août 2025. Chaque jour sans action est un jour de non-conformité.