L'AI Act interdit certaines utilisations de l'IA dès février 2025. Scoring social, manipulation, reconnaissance des émotions : le point complet.
Avant même d’aborder les systèmes à haut risque, les obligations de transparence ou la maîtrise de l’IA, le Règlement européen sur l’intelligence artificielle (Règlement 2024/1689) trace des lignes rouges absolues. L’Article 5 dresse la liste des pratiques d’IA purement et simplement interdites dans l’Union européenne.
Ces interdictions sont en vigueur depuis le 1er février 2025. Ce ne sont pas des échéances futures : elles s’appliquent maintenant.
Article 5, paragraphe 1 — Règlement (UE) 2024/1689
Les pratiques en matière d’intelligence artificielle suivantes sont interdites : […] la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui déploie des techniques subliminales […] ou des techniques délibérément manipulatrices ou trompeuses ayant pour objectif ou pour effet d’altérer substantiellement le comportement d’une personne […] d’une manière qui cause ou est raisonnablement susceptible de causer un préjudice important à cette personne ou à une autre personne.
L’AI Act interdit les systèmes qui évaluent ou classifient les personnes physiques sur la base de leur comportement social ou de caractéristiques personnelles, lorsque ce score conduit à un traitement défavorable dans des contextes sans rapport avec la collecte des données, ou disproportionné par rapport au comportement en question.
Attention : contrairement à ce que l’on croit souvent, cette interdiction ne vise pas uniquement les gouvernements. Elle s’applique aussi aux acteurs privés. Une entreprise qui constituerait un “score de fiabilité” de ses clients en agrégeant données de paiement, comportement en ligne et interactions avec le service client — et utiliserait ce score pour refuser des services — serait en infraction.
Exemples concrets d’usages désormais illégaux :
Tout système d’IA conçu pour altérer le comportement d’une personne à son insu est interdit. Cela couvre les techniques subliminales (stimuli imperceptibles par la conscience) et les techniques délibérément manipulatrices ou trompeuses.
Exemples :
Les systèmes d’IA qui exploitent les vulnérabilités liées à l’âge, au handicap ou à la situation sociale ou économique d’une personne pour altérer substantiellement son comportement sont interdits.
Exemples :
L’utilisation de systèmes d’identification biométrique à distance “en temps réel” dans les espaces accessibles au public à des fins répressives est interdite, avec trois exceptions strictement encadrées :
Même dans ces cas, l’utilisation nécessite une autorisation judiciaire préalable et est soumise à des garanties strictes.
Article 5, paragraphe 1, point f — Règlement (UE) 2024/1689
[Est interdit] la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA pour déduire les émotions d’une personne physique sur le lieu de travail et dans les établissements d’enseignement, sauf lorsque l’utilisation du système d’IA est destinée à être mise en place ou mise sur le marché pour des raisons médicales ou de sécurité.
Cette interdiction est particulièrement pertinente pour les entreprises. Elle couvre :
Les seules exceptions : les usages à finalité médicale (détection de douleur chez des patients non communicants, par exemple) ou de sécurité (détection de fatigue chez un conducteur professionnel).
L’AI Act interdit la constitution ou l’expansion de bases de données de reconnaissance faciale par la collecte non ciblée d’images à partir d’internet ou de vidéosurveillance. C’est une réponse directe aux pratiques d’entreprises comme Clearview AI, qui avait constitué une base de plusieurs milliards de visages en aspirant des photos publiques.
📄Risques de l'IA en entreprise : identifier et gérer efficacement→La plupart des entreprises pensent spontanément que ces interdictions ne les concernent pas. Mais certains usages, notamment dans les RH et le marketing, peuvent s’en approcher dangereusement.
Posez-vous ces questions :
Si la réponse à l’une de ces questions est “oui” ou “peut-être”, une analyse approfondie s’impose.
La connaissance de ces interdictions par les collaborateurs est essentielle. L’obligation de maîtrise de l’IA (Article 4) inclut nécessairement la compréhension de ce qui est interdit. Un collaborateur qui ne sait pas qu’il est illégal d’utiliser la reconnaissance des émotions en contexte professionnel ne peut pas signaler un usage non conforme.
La formation des équipes sur ces interdictions n’est pas optionnelle — c’est une condition préalable à toute gouvernance IA responsable.
📄AI Act Article 4 : l'obligation de formation IA expliquée→Les pratiques interdites font l’objet du niveau de sanctions le plus élevé de l’AI Act : jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial, le montant le plus élevé étant retenu. Ce sont les amendes les plus lourdes jamais prévues par une réglementation numérique européenne — plus élevées que celles du RGPD.
Ce que ça implique pour vous
Les interdictions de l’Article 5 sont en vigueur depuis le 1er février 2025. Scoring social, manipulation par l’IA, reconnaissance des émotions au travail : ces pratiques sont désormais illégales, avec des sanctions pouvant atteindre 35 millions d’euros. L’enjeu pour les entreprises est double : vérifier immédiatement qu’aucun outil IA en place ne franchit ces lignes rouges, et former les équipes à reconnaître les usages interdits avant qu’un incident ne survienne.