KI macht Unternehmen produktiver — und angreifbarer. Während die meisten Organisationen über Chancen sprechen, wachsen die Sicherheitsrisiken im Verborgenen. Mitarbeiter geben vertrauliche Daten in ChatGPT ein. Halluzinationen gelangen in Kundenberichte. Angreifer nutzen Prompt Injection, um KI-Systeme zu manipulieren. Und die IT-Abteilung weiß oft nicht einmal, welche KI-Tools im Einsatz sind.
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat 2025 seine „Empfehlungen für den sicheren Einsatz generativer KI” aktualisiert und warnt: Die Bedrohungslage durch KI-bezogene Sicherheitsvorfälle hat sich gegenüber 2024 verdoppelt. Gleichzeitig verpflichtet der EU AI Act Unternehmen zu angemessenen Sicherheitsmaßnahmen.
Dieser Artikel beschreibt die fünf größten KI-Sicherheitsrisiken für Unternehmen — und zeigt, wie Sie sie systematisch kontrollieren.
À retenir
- Shadow AI ist das größte unkontrollierte Risiko: 65 % der KI-Nutzung in Unternehmen erfolgt ohne IT-Freigabe
- Das BSI empfiehlt eine KI-spezifische Sicherheitsrichtlinie als Mindestmaßnahme
- Prompt Injection ist der neue Angriffsvektor — und die meisten Unternehmen sind nicht vorbereitet
- KI-Sicherheit beginnt bei der Schulung der Mitarbeiter, nicht bei der Technologie
Risiko 1: Shadow AI — Die unsichtbare Gefahr
Shadow AI ist das KI-Äquivalent von Shadow IT: Mitarbeiter nutzen KI-Tools, die nicht von der IT-Abteilung genehmigt oder geprüft wurden. Und das Ausmaß ist größer, als die meisten Unternehmen vermuten.
65%
der KI-Nutzung in deutschen Unternehmen erfolgt ohne offizielle IT-Freigabe
Source : KPMG Cloud Monitor 2025
Was passiert in der Praxis:
- Ein Sachbearbeiter gibt Kundendaten in ChatGPT ein, um eine Antwortmail zu formulieren
- Eine Führungskraft lädt vertrauliche Strategiepapiere in Claude hoch, um eine Zusammenfassung zu erstellen
- Ein Entwickler kopiert proprietären Quellcode in ein KI-Coding-Tool
Jeder dieser Fälle ist ein potenzieller DSGVO-Verstoß und ein Sicherheitsrisiko. Samsung hat ChatGPT intern verboten, nachdem Mitarbeiter dreimal Quellcode in das Tool eingegeben hatten. Die Deutsche Bank hat 2025 den Zugang zu generativen KI-Tools zunächst komplett gesperrt, bevor eine kontrollierte Einführung erfolgte.
Gegenmaßnahmen:
- Erstellen Sie ein KI-Inventar aller genutzten Tools — offiziell und inoffiziell
- Definieren Sie in einer KI-Richtlinie, welche Tools zugelassen sind
- Bieten Sie zugelassene Alternativen an — Verbote ohne Alternativen führen zu mehr Shadow AI
- Schulen Sie Ihre Mitarbeiter regelmäßig in den Risiken
Risiko 2: Datenlecks und DSGVO-Verstöße
Generative KI-Tools verarbeiten alles, was Nutzer eingeben. Bei den meisten kostenlosen Versionen werden diese Daten für das Training der Modelle verwendet. Das bedeutet: Vertrauliche Informationen können in die Trainingsdaten einfließen und später in Outputs für andere Nutzer auftauchen.
Besonders kritisch:
- Personenbezogene Daten — Verstöße gegen die DSGVO, Bußgelder bis zu 20 Millionen Euro oder 4 % des Jahresumsatzes
- Geschäftsgeheimnisse — Einmal in einem KI-Modell, nicht mehr rückholbar
- Kundendaten — Vertrauensbruch und mögliche Schadensersatzforderungen
Gegenmaßnahmen:
- Enterprise-Versionen nutzen (ChatGPT Enterprise, Azure OpenAI) mit Datenverarbeitungsvertrag
- Klare Datenklassifikation: Was darf in KI-Tools eingegeben werden, was nicht?
- Technische Kontrollen: DLP-Systeme (Data Loss Prevention) um sensible Daten zu erkennen
- Die Datenschutzkonferenz (DSK) bietet mit ihrer „Orientierungshilfe KI und Datenschutz” einen konkreten Rahmen
Die kostenlose Version von ChatGPT hat keinen Datenverarbeitungsvertrag. Jede Eingabe personenbezogener Daten ist ein DSGVO-Verstoß. Nutzen Sie für den Unternehmenseinsatz ausschließlich Enterprise-Versionen oder europäisch gehostete Alternativen.
Risiko 3: KI-Halluzinationen in Geschäftsprozessen
KI-Halluzinationen sind keine Randerscheinung — sie sind ein Grundmerkmal von Sprachmodellen. ChatGPT, Copilot und andere LLMs generieren regelmäßig plausible, aber falsche Informationen: erfundene Statistiken, nicht existierende Gesetze, falsche Quellenangaben.
Dokumentierte Fälle in Deutschland:
- Ein Rechtsanwalt in München zitierte 2024 vor Gericht drei Urteile, die ChatGPT erfunden hatte
- Ein Finanzdienstleister versandte KI-generierte Marktberichte mit falschen Aktienkursen
- Ein Personaldienstleister veröffentlichte Stellenausschreibungen mit erfundenen Gehaltsangaben
Die Verantwortung liegt immer beim Unternehmen, nicht beim Tool. Mehr dazu in unserem detaillierten Artikel: KI-Halluzinationen erkennen und vermeiden.
Gegenmaßnahmen:
- Pflichtüberprüfung: Kein KI-Output mit Fakten, Zahlen oder rechtlichen Aussagen ohne menschliche Kontrolle
- Vier-Augen-Prinzip bei externer Kommunikation
- Schulung in Verifikationstechniken für alle Mitarbeiter
Risiko 4: Prompt Injection und Manipulation
Prompt Injection ist ein Angriffsvektor, bei dem bösartige Anweisungen in KI-Systeme eingeschleust werden. Besonders gefährlich bei:
- Chatbots im Kundenkontakt — Angreifer können den Bot dazu bringen, vertrauliche Informationen preiszugeben oder falsche Aussagen zu machen
- KI-gestützter Dokumentenverarbeitung — Versteckte Anweisungen in Dokumenten können die KI-Analyse manipulieren
- Automatisierten KI-Workflows — Wenn KI-Systeme Entscheidungen ohne menschliche Kontrolle treffen
Realer Fall: Der Chatbot eines Londoner Autohändlers (2024) wurde durch Prompt Injection dazu gebracht, ein Fahrzeug für 1 Pfund zu „verkaufen”. Der Fall wurde weltweit bekannt und führte zu einem erheblichen Reputationsschaden.
Das BSI empfiehlt in seinem Lagebericht 2025: Jedes nach außen gerichtete KI-System muss gegen Prompt Injection gehärtet werden. Input-Validierung, Output-Filterung und regelmäßige Penetrationstests sind Pflicht.
2×
hat sich die Zahl der KI-bezogenen Sicherheitsvorfälle 2025 gegenüber 2024 verdoppelt
Source : BSI-Lagebericht zur IT-Sicherheit 2025
Risiko 5: Bias und fehlerhafte Entscheidungen
KI-Systeme reproduzieren und verstärken Verzerrungen aus ihren Trainingsdaten. Besonders problematisch bei:
- Personalentscheidungen — KI-gestützte Bewerberauswahl kann diskriminieren
- Kreditvergabe — Scoring-Modelle können bestimmte Gruppen benachteiligen
- Kundenservice — Unterschiedliche Qualität der Antworten je nach Sprache oder Herkunft
Der EU AI Act klassifiziert KI-Systeme in Personalentscheidungen als „Hochrisiko” und verlangt Konformitätsbewertungen, Dokumentation und menschliche Aufsicht.
Gegenmaßnahmen:
- Regelmäßige Bias-Audits für alle KI-Systeme, die Entscheidungen beeinflussen
- Menschliche Kontrolle bei allen KI-gestützten Entscheidungen mit Auswirkung auf Personen
- KI-Ethik-Grundsätze als Bestandteil der Unternehmensrichtlinie
BSI-Empfehlungen umsetzen
Das BSI empfiehlt als Mindestmaßnahmen:
- KI-spezifische Sicherheitsrichtlinie erstellen — als Ergänzung zur allgemeinen IT-Sicherheitsrichtlinie
- Risikobasierter Ansatz — nicht jede KI-Nutzung braucht dieselben Schutzmaßnahmen
- Schulung aller Mitarbeiter — die meisten KI-Sicherheitsvorfälle beginnen mit menschlichem Fehlverhalten
- Regelmäßige Überprüfung — die Bedrohungslage ändert sich schneller als bei klassischer IT
- Incident-Response-Plan — was tun, wenn ein KI-bezogener Sicherheitsvorfall eintritt?
Das BSI stellt seine „Empfehlungen für den sicheren Einsatz generativer KI” kostenfrei zur Verfügung. Sie sind ein guter Ausgangspunkt für die eigene KI-Sicherheitsstrategie.
Testen Sie Ihr Wissen: KI-Sicherheit im Unternehmen
KI-Sicherheit beginnt bei der Kompetenz
Die meisten KI-Sicherheitsvorfälle entstehen nicht durch technische Schwachstellen, sondern durch mangelndes Bewusstsein. Mitarbeiter, die die Risiken kennen, treffen bessere Entscheidungen — bei jeder einzelnen Interaktion mit einem KI-Tool.
Brain schult Ihre Mitarbeiter nicht nur in der produktiven Nutzung von KI, sondern auch in KI-Sicherheit, Datenschutz und KI-Governance. Die Module sind praxisnah, rollenbasiert und werden regelmäßig an neue Bedrohungen angepasst.
Ähnliche Artikel
KI-Sicherheit: Risiken erkennen und absichern 2026
Schützen Sie Ihr Unternehmen vor Datenlecks, Prompt Injection und Supply-Chain-Angriffen. KI-Sicherheit inkl. AI-Act-Anforderungen.
Shadow AI im Unternehmen: 5 Risiken + Lösungen 2026
Shadow AI bedroht Datenschutz und Compliance. So erkennen und kontrollieren Sie Schatten-KI mit einer klaren Governance-Strategie.
KI-Detektor: 5 Tools im Vergleich 2026
GPTZero, Originality.ai oder Turnitin? Erfahren Sie, welche KI-Detektoren zuverlässig arbeiten und wie Sie KI-Texte sicher erkennen.