Der AI Act verpflichtet Unternehmen, ein ausreichendes Maß an KI-Kompetenz für alle Mitarbeitenden sicherzustellen. Wer ist betroffen, welche Nachweise sind erforderlich, welche Sanktionen drohen.
Artikel 4 der Europäischen Verordnung über künstliche Intelligenz (Verordnung 2024/1689, bekannt als „AI Act”) wird oft fälschlicherweise als einfache Empfehlung zusammengefasst. In Wirklichkeit handelt es sich um eine verbindliche Rechtspflicht, die seit dem 2. August 2025 gilt.
Artikel 4 — Règlement (UE) 2024/1689
Anbieter und Betreiber von KI-Systemen ergreifen Maßnahmen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen, wobei ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung sowie der Kontext, in dem die KI-Systeme eingesetzt werden sollen, und die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen sind.
Dieser Text ist komplex. Gehen wir ihn Schritt für Schritt durch.
Artikel 4 richtet sich an zwei Kategorien von Akteuren:
Jede Einrichtung, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt und unter eigenem Namen oder eigener Marke auf dem Markt bereitstellt oder in Betrieb nimmt. Dazu gehören Softwareunternehmen, KI-Startups und Unternehmen, die interne KI-basierte Tools entwickeln.
Jede natürliche oder juristische Person, die ein KI-System unter eigener Verantwortung nutzt. Konkret bedeutet das: Jedes Unternehmen, das KI-Tools im Tagesgeschäft einsetzt — von ChatGPT bis hin zu automatisierten Scoring-Systemen.
Das ist der entscheidende Punkt: Man muss keine KI entwickeln, um betroffen zu sein. Wenn Ihre Teams KI-Tools nutzen — selbst Drittanbieter-Tools wie Konversationsassistenten, Content-Generierungswerkzeuge oder automatisierte Analysesysteme — sind Sie ein Betreiber im Sinne der Verordnung.
In der Praxis bedeutet das: Nahezu jedes europäische Unternehmen ist betroffen. In Deutschland sind Unternehmen wie die Deutsche Bank, die Schufa oder Versicherer wie die AOK und die Techniker Krankenkasse, die KI-gestützte Scoring- und Entscheidungssysteme einsetzen, besonders exponiert.
Die Verordnung schreibt kein standardisiertes Schulungsprogramm vor. Sie verlangt ein ausreichendes Maß an KI-Kompetenz (AI Literacy), definiert in Artikel 3(56) als:
Artikel 3, Absatz 56 — Règlement (UE) 2024/1689
Die Fähigkeiten, Kenntnisse und das Verständnis, die es Anbietern, Betreibern und betroffenen Personen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, eine fundierte Entscheidung über den Einsatz von KI-Systemen zu treffen und sich der Chancen und Risiken der KI sowie möglicher Schäden bewusst zu werden.
Konkret bedeutet die Bewertung des Kompetenzniveaus Ihrer Mitarbeitenden, zu überprüfen, dass sie verstehen:
Das erwartete Niveau ist nicht einheitlich. Artikel 4 legt fest, dass die Schulung die „technischen Kenntnisse, Erfahrung, Ausbildung und Schulung” jeder Person sowie den „Kontext, in dem die KI-Systeme eingesetzt werden sollen” berücksichtigen muss. Ein KI-Entwickler und ein Kundenberater haben unterschiedliche Anforderungen an die Kompetenzentwicklung.
Die Verordnung verlangt, dass „Maßnahmen ergriffen” werden, um dieses Kompetenzniveau sicherzustellen. Im Falle einer Kontrolle oder eines Rechtsstreits muss das Unternehmen nachweisen, dass es tatsächlich gehandelt hat. Hier wird der Begriff der dokumentierten Nachweise entscheidend.
Obwohl die genauen Prüfverfahren von den zuständigen nationalen Behörden — in Deutschland insbesondere der BfDI und der BaFin — noch nicht vollständig festgelegt sind, zeichnen sich mehrere Nachweise als unverzichtbar ab:
Erwägungsgrund 20 der Verordnung liefert weitere Hinweise:
Erwägungsgrund 20 — Règlement (UE) 2024/1689
Die Maßnahmen zur KI-Kompetenz […] sollten unter Berücksichtigung des Kontexts, in dem die KI-Systeme eingesetzt werden, konzipiert und gegebenenfalls angepasst werden. […] Anbieter und Betreiber können auch sicherstellen, dass das technische Personal über die erforderliche Schulung und Kompetenz verfügt.
Anders ausgedrückt: Eine generische Schulung, die einmal durchgeführt wird, reicht nicht aus. Die Verordnung erwartet einen kontextbezogenen, messbaren und kontinuierlichen Ansatz.
📄AI Act Artikel 4: die KI-Schulungspflicht erklärt→Anders als andere Bestimmungen des AI Act, die schrittweise in Kraft treten, ist Artikel 4 seit dem 2. August 2025 anwendbar. Der vollständige Zeitplan:
| Datum | Bestimmung |
|---|---|
| 1. Februar 2025 | Verbot verbotener KI-Praktiken (Artikel 5) |
| 2. August 2025 | Artikel 4 — KI-Kompetenzpflicht |
| 2. August 2025 | Pflichten für KI-Modelle mit allgemeinem Verwendungszweck |
| 2. August 2026 | Pflichten für Hochrisiko-KI-Systeme |
Unternehmen, die noch keine Initiative zur Schulung aller Mitarbeitenden gestartet haben, sind somit technisch bereits im Verzug.
Bevor Sie schulen, müssen Sie wissen, was genutzt wird. Erstellen Sie ein vollständiges Inventar aller in Ihrer Organisation eingesetzten KI-Systeme. Berücksichtigen Sie offizielle Tools, aber auch informelle Nutzung (die berüchtigte „Schatten-IT” der KI).
Nicht alle Mitarbeitenden sind gleich exponiert. Segmentieren Sie nach:
Legen Sie klar fest, was jedes Profil wissen muss. Dieser Rahmen dient als Grundlage für die Bewertung des von der Verordnung geforderten ausreichenden Maßes an KI-Kompetenz.
Implementieren Sie angepasste Schulungsprogramme und messen Sie die Ergebnisse. Ein individueller oder teambezogener Kompetenz-Score ermöglicht es, den Fortschritt zu verfolgen und den Konformitätsaufwand nachzuweisen.
Erstellen Sie eine Konformitätsakte mit: Schulungsprogrammen, Teilnahmequoten, Bewertungsergebnissen und regelmäßigen Aktualisierungen. Diese dokumentierten Nachweise sind Ihr stärkstes Mittel im Falle einer Kontrolle.
📄KI-Audit im Unternehmen: praktischer Schritt-für-Schritt-Leitfaden→Artikel 4 fällt unter die mittlere Sanktionsstufe des AI Act. Ein Verstoß kann Bußgelder von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes nach sich ziehen (der höhere Betrag ist maßgeblich).
Doch über die Bußgelder hinaus ist das Reputationsrisiko erheblich. Wenn die Regulierung die Schulung der Mitarbeitenden verlangt und ein Unternehmen dem nicht nachkommt, ist das ein Signal organisatorischer Unreife, das weder Kunden noch Regulierer noch Partner dauerhaft tolerieren werden.
Artikel 4 ist im europäischen Regulierungsrahmen aus mehreren Gründen einzigartig:
Er ist auch die zugänglichste Bestimmung, um mit der AI-Act-Konformität zu beginnen. Noch bevor Sie Ihre Systeme klassifizieren oder Ihre Modelle dokumentieren, können — und müssen — Sie mit der Kompetenzentwicklung Ihrer Teams beginnen.
Ce que ça implique pour vous
Artikel 4 macht die Schulung aller Mitarbeitenden zu einer gesetzlichen Pflicht — nicht zu einer Option. Unternehmen müssen nachweisen können, dass ihr Personal ein ausreichendes Maß an KI-Kompetenz erreicht hat — mit messbaren Bewertungen, gründlicher Dokumentation und kontinuierlicher Nachverfolgung. Die Pflicht gilt seit dem 2. August 2025. Jeder Tag ohne Maßnahmen ist ein Tag der Nicht-Konformität.