Artikel 4: die Pflicht, alle Mitarbeitenden in KI zu schulen

Der AI Act verpflichtet Unternehmen, ein ausreichendes Maß an KI-Kompetenz für alle Mitarbeitenden sicherzustellen. Wer ist betroffen, welche Nachweise sind erforderlich, welche Sanktionen drohen.

Was Artikel 4 tatsächlich besagt

Artikel 4 der Europäischen Verordnung über künstliche Intelligenz (Verordnung 2024/1689, bekannt als „AI Act”) wird oft fälschlicherweise als einfache Empfehlung zusammengefasst. In Wirklichkeit handelt es sich um eine verbindliche Rechtspflicht, die seit dem 2. August 2025 gilt.

Artikel 4Règlement (UE) 2024/1689

Anbieter und Betreiber von KI-Systemen ergreifen Maßnahmen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen, wobei ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung sowie der Kontext, in dem die KI-Systeme eingesetzt werden sollen, und die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen sind.

Dieser Text ist komplex. Gehen wir ihn Schritt für Schritt durch.

Wer ist betroffen?

Artikel 4 richtet sich an zwei Kategorien von Akteuren:

Anbieter (Provider)

Jede Einrichtung, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt und unter eigenem Namen oder eigener Marke auf dem Markt bereitstellt oder in Betrieb nimmt. Dazu gehören Softwareunternehmen, KI-Startups und Unternehmen, die interne KI-basierte Tools entwickeln.

Betreiber (Deployer)

Jede natürliche oder juristische Person, die ein KI-System unter eigener Verantwortung nutzt. Konkret bedeutet das: Jedes Unternehmen, das KI-Tools im Tagesgeschäft einsetzt — von ChatGPT bis hin zu automatisierten Scoring-Systemen.

Das ist der entscheidende Punkt: Man muss keine KI entwickeln, um betroffen zu sein. Wenn Ihre Teams KI-Tools nutzen — selbst Drittanbieter-Tools wie Konversationsassistenten, Content-Generierungswerkzeuge oder automatisierte Analysesysteme — sind Sie ein Betreiber im Sinne der Verordnung.

In der Praxis bedeutet das: Nahezu jedes europäische Unternehmen ist betroffen. In Deutschland sind Unternehmen wie die Deutsche Bank, die Schufa oder Versicherer wie die AOK und die Techniker Krankenkasse, die KI-gestützte Scoring- und Entscheidungssysteme einsetzen, besonders exponiert.

Was bedeutet „ausreichendes Maß an KI-Kompetenz”?

Die Verordnung schreibt kein standardisiertes Schulungsprogramm vor. Sie verlangt ein ausreichendes Maß an KI-Kompetenz (AI Literacy), definiert in Artikel 3(56) als:

Artikel 3, Absatz 56Règlement (UE) 2024/1689

Die Fähigkeiten, Kenntnisse und das Verständnis, die es Anbietern, Betreibern und betroffenen Personen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, eine fundierte Entscheidung über den Einsatz von KI-Systemen zu treffen und sich der Chancen und Risiken der KI sowie möglicher Schäden bewusst zu werden.

Konkret bedeutet die Bewertung des Kompetenzniveaus Ihrer Mitarbeitenden, zu überprüfen, dass sie verstehen:

  • Was ein KI-System ist und wie es funktioniert — auf einem für ihre Rolle angemessenen Niveau
  • Die damit verbundenen Risiken bei der Nutzung von KI im beruflichen Kontext
  • Bewährte Verfahren: Überprüfung der Ergebnisse, Datenschutz (insbesondere im Einklang mit der DSGVO), Meldung von Anomalien
  • Die Grenzen der Systeme, die sie täglich nutzen

Das erwartete Niveau ist nicht einheitlich. Artikel 4 legt fest, dass die Schulung die „technischen Kenntnisse, Erfahrung, Ausbildung und Schulung” jeder Person sowie den „Kontext, in dem die KI-Systeme eingesetzt werden sollen” berücksichtigen muss. Ein KI-Entwickler und ein Kundenberater haben unterschiedliche Anforderungen an die Kompetenzentwicklung.

Die zentrale Frage: Wie lässt sich die Konformität nachweisen?

Die Verordnung verlangt, dass „Maßnahmen ergriffen” werden, um dieses Kompetenzniveau sicherzustellen. Im Falle einer Kontrolle oder eines Rechtsstreits muss das Unternehmen nachweisen, dass es tatsächlich gehandelt hat. Hier wird der Begriff der dokumentierten Nachweise entscheidend.

Was die Behörden erwarten werden

Obwohl die genauen Prüfverfahren von den zuständigen nationalen Behörden — in Deutschland insbesondere der BfDI und der BaFin — noch nicht vollständig festgelegt sind, zeichnen sich mehrere Nachweise als unverzichtbar ab:

  1. Ein Inventar der genutzten KI-Systeme in der Organisation, klassifiziert nach Risikoniveau
  2. Ein an die verschiedenen Mitarbeiterprofile angepasster Schulungsplan
  3. Teilnahmenachweise (Register, Zertifikate, Protokolle)
  4. Eine Bewertung des Kompetenzniveaus vor und nach der Schulung
  5. Regelmäßige Nachverfolgung, die zeigt, dass die Schulung kein einmaliges Ereignis, sondern ein fortlaufender Prozess ist

Erwägungsgrund 20 der Verordnung liefert weitere Hinweise:

Erwägungsgrund 20Règlement (UE) 2024/1689

Die Maßnahmen zur KI-Kompetenz […] sollten unter Berücksichtigung des Kontexts, in dem die KI-Systeme eingesetzt werden, konzipiert und gegebenenfalls angepasst werden. […] Anbieter und Betreiber können auch sicherstellen, dass das technische Personal über die erforderliche Schulung und Kompetenz verfügt.

Anders ausgedrückt: Eine generische Schulung, die einmal durchgeführt wird, reicht nicht aus. Die Verordnung erwartet einen kontextbezogenen, messbaren und kontinuierlichen Ansatz.

📄AI Act Artikel 4: die KI-Schulungspflicht erklärt

Der Zeitplan: bereits in Kraft

Anders als andere Bestimmungen des AI Act, die schrittweise in Kraft treten, ist Artikel 4 seit dem 2. August 2025 anwendbar. Der vollständige Zeitplan:

DatumBestimmung
1. Februar 2025Verbot verbotener KI-Praktiken (Artikel 5)
2. August 2025Artikel 4 — KI-Kompetenzpflicht
2. August 2025Pflichten für KI-Modelle mit allgemeinem Verwendungszweck
2. August 2026Pflichten für Hochrisiko-KI-Systeme

Unternehmen, die noch keine Initiative zur Schulung aller Mitarbeitenden gestartet haben, sind somit technisch bereits im Verzug.

Wie Sie Ihre Konformitätsstrategie strukturieren

Schritt 1: KI-Nutzung kartieren

Bevor Sie schulen, müssen Sie wissen, was genutzt wird. Erstellen Sie ein vollständiges Inventar aller in Ihrer Organisation eingesetzten KI-Systeme. Berücksichtigen Sie offizielle Tools, aber auch informelle Nutzung (die berüchtigte „Schatten-IT” der KI).

Schritt 2: Betroffene Personengruppen identifizieren

Nicht alle Mitarbeitenden sind gleich exponiert. Segmentieren Sie nach:

  • Grad der Interaktion mit KI-Systemen (täglicher, gelegentlicher, indirekter Nutzer)
  • Risikoniveau der genutzten Systeme (z. B. Schufa-Scoring, automatisierte Recruiting-Prozesse, Kundenservice-Chatbots)
  • Vorhandene technische Kenntnisse

Schritt 3: Kompetenzrahmen definieren

Legen Sie klar fest, was jedes Profil wissen muss. Dieser Rahmen dient als Grundlage für die Bewertung des von der Verordnung geforderten ausreichenden Maßes an KI-Kompetenz.

Schritt 4: Schulen und bewerten

Implementieren Sie angepasste Schulungsprogramme und messen Sie die Ergebnisse. Ein individueller oder teambezogener Kompetenz-Score ermöglicht es, den Fortschritt zu verfolgen und den Konformitätsaufwand nachzuweisen.

Schritt 5: Kontinuierlich dokumentieren

Erstellen Sie eine Konformitätsakte mit: Schulungsprogrammen, Teilnahmequoten, Bewertungsergebnissen und regelmäßigen Aktualisierungen. Diese dokumentierten Nachweise sind Ihr stärkstes Mittel im Falle einer Kontrolle.

📄KI-Audit im Unternehmen: praktischer Schritt-für-Schritt-Leitfaden

Sanktionen bei Nicht-Konformität

Artikel 4 fällt unter die mittlere Sanktionsstufe des AI Act. Ein Verstoß kann Bußgelder von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes nach sich ziehen (der höhere Betrag ist maßgeblich).

Doch über die Bußgelder hinaus ist das Reputationsrisiko erheblich. Wenn die Regulierung die Schulung der Mitarbeitenden verlangt und ein Unternehmen dem nicht nachkommt, ist das ein Signal organisatorischer Unreife, das weder Kunden noch Regulierer noch Partner dauerhaft tolerieren werden.

Was Artikel 4 von anderen Pflichten unterscheidet

Artikel 4 ist im europäischen Regulierungsrahmen aus mehreren Gründen einzigartig:

  • Er betrifft Menschen, nicht Systeme. Die meisten AI-Act-Pflichten beziehen sich auf die technischen Eigenschaften von KI-Systemen. Artikel 4 hingegen betrifft die Kompetenzen der Menschen, die sie nutzen.
  • Er ist querschnittlich. Unabhängig vom Risikoniveau Ihrer KI-Systeme gilt die Kompetenzpflicht.
  • Er ist bereits in Kraft. Keine zusätzliche Übergangsfrist.

Er ist auch die zugänglichste Bestimmung, um mit der AI-Act-Konformität zu beginnen. Noch bevor Sie Ihre Systeme klassifizieren oder Ihre Modelle dokumentieren, können — und müssen — Sie mit der Kompetenzentwicklung Ihrer Teams beginnen.

Ce que ça implique pour vous

Artikel 4 macht die Schulung aller Mitarbeitenden zu einer gesetzlichen Pflicht — nicht zu einer Option. Unternehmen müssen nachweisen können, dass ihr Personal ein ausreichendes Maß an KI-Kompetenz erreicht hat — mit messbaren Bewertungen, gründlicher Dokumentation und kontinuierlicher Nachverfolgung. Die Pflicht gilt seit dem 2. August 2025. Jeder Tag ohne Maßnahmen ist ein Tag der Nicht-Konformität.