L’Article 4 du règlement européen sur l’intelligence artificielle — l’AI Act — est entré en application le 2 août 2025. C’est l’une des premières obligations du texte à devenir effective. Et elle concerne toutes les entreprises qui utilisent ou déploient des systèmes d’IA, sans exception.
Pourtant, la majorité des organisations n’ont rien mis en place. Voici ce qu’il faut savoir et ce qu’il faut faire.
À retenir
- L'Article 4 impose de garantir un niveau suffisant de compétences IA chez le personnel
- L'obligation est en vigueur depuis le 2 août 2025 — pas de période de transition
- Elle concerne tous les fournisseurs et utilisateurs de systèmes d'IA dans l'UE
- Les sanctions peuvent atteindre 15 millions d'euros ou 3% du chiffre d'affaires mondial
Ce que dit exactement l’Article 4
Le texte est court mais large. Il impose aux fournisseurs et aux déployeurs de systèmes d’IA de prendre des mesures pour garantir « un niveau suffisant de compétences en matière d’IA » chez leur personnel et toute autre personne qui utilise des systèmes d’IA en leur nom.
Le niveau requis n’est pas le même pour tout le monde. L’Article 4 précise qu’il doit être adapté à trois critères :
- Les connaissances techniques de la personne
- Son expérience et sa formation antérieures
- Le contexte d’utilisation du système d’IA
Concrètement, un développeur qui intègre une API de LLM et un commercial qui utilise ChatGPT pour rédiger des emails n’ont pas besoin de la même formation. Mais les deux doivent être formés.
L’Article 4 ne définit pas de programme de formation standard. C’est à chaque entreprise de déterminer ce qui est « suffisant » pour son contexte. En cas de contrôle, c’est cette évaluation qui sera examinée.
Qui est concerné
La réponse courte : pratiquement tout le monde.
L’AI Act distingue deux catégories d’acteurs :
- Les fournisseurs (providers) — les entreprises qui développent ou mettent sur le marché des systèmes d’IA
- Les déployeurs (deployers) — les entreprises qui utilisent des systèmes d’IA dans un cadre professionnel
Si vos équipes utilisent ChatGPT, Copilot, Gemini, ou n’importe quel outil intégrant de l’IA — vous êtes un déployeur. L’obligation s’applique à vous.
73%
des entreprises européennes utilisent au moins un outil d'IA générative, mais n'ont pas encore formé leurs équipes
Source : Eurobaromètre 2025
Les sanctions
L’Article 4 fait partie des obligations dites « horizontales » de l’AI Act. Le non-respect est sanctionné par l’article 99 du règlement :
- Jusqu’à 15 millions d’euros d’amende
- Ou 3% du chiffre d’affaires annuel mondial (le montant le plus élevé)
Pour les PME et startups, les sanctions sont proportionnées mais restent significatives. Le règlement prévoit que les amendes doivent être « effectives, proportionnées et dissuasives ».
Les premières sanctions ne sont pas attendues avant mi-2026, le temps que les autorités nationales mettent en place leurs structures de contrôle. Mais le texte est en vigueur — le risque juridique existe dès aujourd’hui.
Ce que « compétences IA suffisantes » veut dire en pratique
Le considérant 20 de l’AI Act apporte des précisions. Les compétences en matière d’IA doivent couvrir :
- La compréhension du fonctionnement des systèmes d’IA utilisés
- La capacité à interpréter les résultats produits par ces systèmes
- La connaissance des risques liés à leur utilisation (biais, hallucinations, confidentialité)
- La capacité à exercer un contrôle humain approprié
Ce n’est pas un cours théorique sur le machine learning. C’est une formation pratique qui permet à chaque collaborateur de comprendre ce que fait l’IA qu’il utilise, quand elle peut se tromper, et comment réagir.
Les 4 actions à mener maintenant
1. Cartographier les usages IA dans votre organisation. Qui utilise quoi, dans quel contexte, pour quelles tâches. Incluez le shadow AI — les outils utilisés sans validation de l’entreprise.
2. Évaluer le niveau actuel de compétences. Un diagnostic rapide par population : dirigeants, managers, experts techniques, collaborateurs. Le niveau requis n’est pas le même pour tous.
3. Mettre en place un programme de formation adapté. Pas une journée de sensibilisation générique. Un programme continu, adapté au métier, au niveau technique et aux outils effectivement utilisés.
4. Documenter votre démarche. En cas de contrôle, vous devrez démontrer que vous avez pris des mesures proportionnées. Gardez une trace des formations dispensées, des populations couvertes et des résultats obtenus.
Commencez par les populations les plus exposées : celles qui utilisent l’IA pour prendre des décisions qui affectent des personnes (recrutement, crédit, santé, service client). C’est là que le risque réglementaire est le plus élevé.
Évaluez votre niveau de conformité
Ce que Brain fait pour vous
Brain est une plateforme de formation IA conçue pour répondre exactement aux exigences de l’Article 4. Des modules courts et pratiques, adaptés au métier de chaque collaborateur, avec un suivi des compétences acquises qui sert de preuve de conformité.
Pas de cours théorique. Des mises en situation réelles — reconnaître une hallucination, protéger des données confidentielles, utiliser l’IA de manière responsable dans son métier.
45 min
Le temps moyen pour qu'un collaborateur atteigne le niveau de compétences requis par l'Article 4 avec Brain