De AI Act verbiedt bepaalde AI-toepassingen sinds februari 2025. Sociale scoring, manipulatie, emotieherkenning: het volledige overzicht.
Nog voordat de hoog-risicosystemen, de transparantieverplichtingen of de AI-geletterdheid aan bod komen, trekt de Europese Verordening inzake kunstmatige intelligentie (Verordening 2024/1689) absolute rode lijnen. Artikel 5 somt de AI-praktijken op die ronduit verboden zijn in de Europese Unie.
Deze verboden zijn van kracht sinds 1 februari 2025. Het zijn geen toekomstige deadlines: ze gelden nu.
Artikel 5, lid 1 — Règlement (UE) 2024/1689
De volgende praktijken op het gebied van kunstmatige intelligentie zijn verboden: […] het op de markt brengen, het in gebruik stellen of het gebruik van een AI-systeem dat subliminale technieken […] of opzettelijk manipulatieve of misleidende technieken inzet die tot doel of gevolg hebben het gedrag van een persoon wezenlijk te verstoren […] op een wijze die aanzienlijke schade toebrengt of redelijkerwijs kan toebrengen aan die persoon of aan een andere persoon.
De AI Act verbiedt systemen die natuurlijke personen evalueren of classificeren op basis van hun sociaal gedrag of persoonlijke kenmerken, wanneer die score leidt tot een nadelige behandeling in contexten die geen verband houden met de gegevensverzameling, of die onevenredig is ten opzichte van het gedrag in kwestie.
Let op: in tegenstelling tot wat vaak wordt gedacht, richt dit verbod zich niet uitsluitend op overheden. Het geldt ook voor particuliere actoren. De Nederlandse toeslagenaffaire heeft aangetoond hoe discriminerende algoritmische scoring tot ernstige maatschappelijke schade kan leiden — precies het soort praktijk dat de AI Act beoogt te voorkomen. Een bedrijf dat een “betrouwbaarheidsscore” van zijn klanten zou samenstellen door betalingsgegevens, onlinegedrag en interacties met de klantenservice te combineren — en die score zou gebruiken om diensten te weigeren — zou in overtreding zijn.
Concrete voorbeelden van nu illegale toepassingen:
Elk AI-systeem dat is ontworpen om het gedrag van een persoon zonder diens medeweten te beïnvloeden, is verboden. Dit omvat subliminale technieken (stimuli die niet bewust worden waargenomen) en opzettelijk manipulatieve of misleidende technieken.
Voorbeelden:
AI-systemen die kwetsbaarheden door leeftijd, handicap of sociale of economische situatie van een persoon uitbuiten om diens gedrag wezenlijk te verstoren, zijn verboden.
Voorbeelden:
Het gebruik van realtime biometrische identificatiesystemen op afstand in openbaar toegankelijke ruimten voor rechtshandhavingsdoeleinden is verboden, met drie strikt omkaderde uitzonderingen:
Zelfs in deze gevallen is voorafgaande rechterlijke toestemming vereist en gelden strenge waarborgen.
Artikel 5, lid 1, punt f — Règlement (UE) 2024/1689
[Verboden is] het op de markt brengen, het in gebruik stellen of het gebruik van AI-systemen om de emoties van een natuurlijke persoon op de werkplek en in onderwijsinstellingen af te leiden, behalve wanneer het gebruik van het AI-systeem bestemd is om te worden geïmplementeerd of op de markt te worden gebracht om medische of veiligheidsredenen.
Dit verbod is bijzonder relevant voor bedrijven. Het omvat:
De enige uitzonderingen: medische doeleinden (detectie van pijn bij niet-communicatieve patiënten, bijvoorbeeld) of veiligheidsdoeleinden (detectie van vermoeidheid bij een beroepschauffeur).
De AI Act verbiedt de opbouw of uitbreiding van gezichtsherkenningsdatabanken door het ongerichte verzamelen van afbeeldingen van het internet of van videobewaking. Dit is een direct antwoord op de praktijken van bedrijven zoals Clearview AI, dat een database van meerdere miljarden gezichten had opgebouwd door het scrapen van openbare foto’s.
📄AI-risico's in het bedrijf: effectief identificeren en beheren→De meeste bedrijven denken spontaan dat deze verboden hen niet aangaan. Maar bepaalde toepassingen, met name in HR en marketing, kunnen er gevaarlijk dicht bij komen.
Stel uzelf deze vragen:
Als het antwoord op een van deze vragen “ja” of “misschien” is, is een grondige analyse vereist.
De kennis van deze verboden door medewerkers is essentieel. De verplichting inzake AI-geletterdheid (Artikel 4) omvat noodzakelijkerwijs het begrip van wat verboden is. Een medewerker die niet weet dat het gebruik van emotieherkenning in professionele context illegaal is, kan een niet-conform gebruik niet melden.
De opleiding van de teams over deze verboden is niet optioneel — het is een voorwaarde voor elke verantwoorde AI-governance.
📄AI Act Artikel 4: de opleidingsverplichting uitgelegd→Verboden praktijken worden beboet met het hoogste sanctieniveau van de AI Act: tot 35 miljoen euro of 7% van de wereldwijde jaaromzet, het hoogste bedrag is van toepassing. Het zijn de zwaarste boetes ooit voorzien door een Europese digitale regelgeving — zwaarder dan die van de AVG (Algemene Verordening Gegevensbescherming). In Nederland zal de Autoriteit Persoonsgegevens (AP) een centrale rol spelen in het toezicht op deze verboden praktijken.
Ce que ça implique pour vous
De verboden uit Artikel 5 gelden sinds 1 februari 2025. Sociale scoring, AI-manipulatie, emotieherkenning op de werkplek: deze praktijken zijn nu illegaal, met sancties tot 35 miljoen euro. De uitdaging voor bedrijven is tweeledig: onmiddellijk verifiëren dat geen enkel AI-tool in gebruik deze rode lijnen overschrijdt, en de teams opleiden om verboden toepassingen te herkennen voordat er een incident plaatsvindt.