Der AI Act verbietet bestimmte KI-Anwendungen seit Februar 2025. Social Scoring, Manipulation, Emotionserkennung: der vollständige Überblick.
Noch bevor Hochrisiko-Systeme, Transparenzpflichten oder KI-Kompetenz behandelt werden, zieht die Europäische Verordnung über künstliche Intelligenz (Verordnung 2024/1689) absolute rote Linien. Artikel 5 listet die KI-Praktiken auf, die in der Europäischen Union schlicht verboten sind.
Diese Verbote gelten seit dem 1. Februar 2025. Es handelt sich nicht um zukünftige Fristen: Sie gelten jetzt.
Artikel 5, Absatz 1 — Règlement (UE) 2024/1689
Folgende Praktiken im Bereich der künstlichen Intelligenz sind verboten: […] das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das unterschwellige Techniken […] oder absichtlich manipulative oder täuschende Techniken einsetzt, mit dem Ziel oder der Wirkung, das Verhalten einer Person wesentlich zu beeinflussen […] in einer Weise, die dieser Person oder einer anderen Person einen erheblichen Schaden zufügt oder mit hinreichender Wahrscheinlichkeit zufügen wird.
Der AI Act verbietet Systeme, die natürliche Personen auf der Grundlage ihres Sozialverhaltens oder persönlicher Merkmale bewerten oder klassifizieren, wenn diese Bewertung zu einer nachteiligen Behandlung in Kontexten führt, die mit der Datenerhebung in keinem Zusammenhang stehen, oder die unverhältnismäßig zum betreffenden Verhalten ist.
Achtung: Anders als oft angenommen richtet sich dieses Verbot nicht nur an Regierungen. Es gilt auch für private Akteure. Ein Unternehmen, das einen „Zuverlässigkeits-Score” seiner Kunden erstellt, indem es Zahlungsdaten, Online-Verhalten und Kundenservice-Interaktionen zusammenführt — und diesen Score nutzt, um Dienstleistungen zu verweigern — würde gegen die Verordnung verstoßen.
Konkrete Beispiele nun illegaler Praktiken:
Jedes KI-System, das darauf ausgelegt ist, das Verhalten einer Person ohne deren Wissen zu verändern, ist verboten. Dies umfasst unterschwellige Techniken (für das Bewusstsein nicht wahrnehmbare Reize) und absichtlich manipulative oder täuschende Techniken.
Beispiele:
KI-Systeme, die Schwachstellen aufgrund von Alter, Behinderung oder sozialer oder wirtschaftlicher Situation ausnutzen, um das Verhalten einer Person wesentlich zu beeinflussen, sind verboten.
Beispiele:
Die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken ist verboten, mit drei streng eingegrenzten Ausnahmen:
Selbst in diesen Fällen ist eine vorherige richterliche Genehmigung erforderlich, und die Nutzung unterliegt strengen Schutzmaßnahmen.
Artikel 5, Absatz 1, Buchstabe f — Règlement (UE) 2024/1689
[Verboten ist] das Inverkehrbringen, die Inbetriebnahme oder die Verwendung von KI-Systemen, um Emotionen einer natürlichen Person am Arbeitsplatz und in Bildungseinrichtungen abzuleiten, es sei denn, die Verwendung des KI-Systems soll aus medizinischen Gründen oder aus Sicherheitsgründen eingeführt oder in Verkehr gebracht werden.
Dieses Verbot ist besonders relevant für Unternehmen. Es umfasst:
Die einzigen Ausnahmen: medizinische Anwendungen (z. B. Schmerzerkennung bei nicht kommunikationsfähigen Patienten) oder Sicherheitszwecke (z. B. Erkennung von Müdigkeit bei Berufskraftfahrern).
Der AI Act verbietet die Erstellung oder Erweiterung von Gesichtserkennungsdatenbanken durch die ungezielte Sammlung von Bildern aus dem Internet oder von Videoüberwachungsaufnahmen. Dies ist eine direkte Reaktion auf die Praktiken von Unternehmen wie Clearview AI, das eine Datenbank mit mehreren Milliarden Gesichtern durch Abgreifen öffentlicher Fotos aufgebaut hatte.
📄KI-Risiken im Unternehmen: effektiv identifizieren und managen→Die meisten Unternehmen denken spontan, dass diese Verbote sie nicht betreffen. Aber bestimmte Praktiken, insbesondere im Personalwesen und Marketing, können gefährlich nahe daran sein.
Stellen Sie sich diese Fragen:
Wenn die Antwort auf eine dieser Fragen „ja” oder „möglicherweise” lautet, ist eine gründliche Analyse erforderlich.
Das Wissen der Mitarbeitenden über diese Verbote ist unverzichtbar. Die KI-Kompetenzpflicht (Artikel 4) schließt notwendigerweise das Verständnis dessen ein, was verboten ist. Ein Mitarbeiter, der nicht weiß, dass die Verwendung von Emotionserkennung im beruflichen Kontext illegal ist, kann einen nicht konformen Einsatz nicht melden.
Die Schulung der Teams zu diesen Verboten ist keine Option — sie ist eine Voraussetzung für jede verantwortungsvolle KI-Governance. Die BfDI und die zuständigen nationalen Behörden in Deutschland betonen, dass Unternehmen ihre Belegschaft befähigen müssen, nicht konforme KI-Nutzungen zu erkennen und zu melden.
📄AI Act Artikel 4: die KI-Schulungspflicht erklärt→Verbotene Praktiken unterliegen der höchsten Sanktionsstufe des AI Act: bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes, wobei der höhere Betrag maßgeblich ist. Dies sind die höchsten Bußgelder, die jemals in einer europäischen Digitalregulierung vorgesehen wurden — höher als die der DSGVO. Bei Verstößen, die auch personenbezogene Daten betreffen, können DSGVO-Sanktionen parallel greifen.
Ce que ça implique pour vous
Die Verbote des Artikels 5 gelten seit dem 1. Februar 2025. Social Scoring, KI-gestützte Manipulation, Emotionserkennung am Arbeitsplatz: Diese Praktiken sind nun illegal, mit Sanktionen von bis zu 35 Millionen Euro. Die Herausforderung für Unternehmen ist eine doppelte: Sofort überprüfen, dass kein eingesetztes KI-Tool diese roten Linien überschreitet, und die Teams schulen, verbotene Nutzungen zu erkennen, bevor ein Vorfall eintritt.