Wenn Mitarbeiter KI-Tools nutzen, die die IT-Abteilung nicht kennt
Das stille Datenproblem in deutschen Unternehmen
ChatGPT, Claude, Perplexity, Notion AI - die Liste verfügbarer KI-Tools ist endlos, die Einstiegshürde ist niedrig und der Produktivitätsgewinn sofort spürbar. Das Problem, die IT-Abteilung weiß von nichts.
Dieses Phänomen hat einen Namen: Shadow AI. Und es entwickelt sich 2026 zu einer der gefährlichsten Compliance-Bedrohungen für deutsche Unternehmen und das nicht erst nach OpenClaw (aka. Clawbot / Moltbot).
Nach Angaben von Netwrix mussten bereits 37% der Organisationen ihre Sicherheitsstrategie aufgrund von KI-getriebenen Bedrohungen anpassen. Unternehmen mit hoher Shadow-AI-Nutzung erleiden Datenpannen, die im Durchschnitt 4,63 Millionen US-Dollar kosten, deutlich mehr als bei Unternehmen mit kontrollierter KI-Nutzung.
Shadow AI ist mehr als die klassische Shadow IT
Ein Dokument, das zum Beispiel in einer Dropbox landet, bleibt erstmal dort. Solange dieses Dokument keiner aktiv teilt oder die Dropbox kompromitiert wird, ist das vorerst noch kein Problem. Ein Kundendatensatz, der allerdings in ein öffentliches KI-Modell eingespeist wird, kann theoretisch (und wird das praktisch sicher auch) als Trainingsdaten in das nächste Modell-Update einfließen. Das gefährliche dabei ist, das Shadow AI die Daten unkontrolliert repliziert, Shadow IT im Gegensatz speichert diese lediglich in einem nicht von Unternehmen kontrollierten Bereich. Beides nicht schön, aber die Folgen von Shadow AI können durchaus unangenehmer werden.
Laut Netskope hat sich die Anzahl der Vorfälle, bei denen Mitarbeiter sensible Daten an KI-Anwendungen senden, innerhalb eines Jahres verdoppelt, auf durchschnittlich 223 Vorfälle pro Monat und Unternehmen.
Besonders tückisch: Shadow AI versteckt sich oft nicht in neuen Tools, die von der IT-Security kontrolliert werden könnten, sondern in:
- Browser-Erweiterungen mit eingebautem KI-Assistenten
- AI-Features in bereits genehmigten SaaS-Tools, die still per Update aktiviert werden
- Coding-Assistenten wie GitHub Copilot, die Entwickler eigenständig installieren
- No-Code-Agenten, die Mitarbeiter selbst bauen – ohne Governance, ohne Audit-Trail
Typisches Ergebnis aus der Praxis: Die IT-Abteilung meldet 30 genutzte Cloud-Apps. Ein scharfgeschaltetes CASB meldet dann nach einer Woche 847 gefundene Cloud-Apps.
Das ist übrigens kein Witz. Das sind reale Zahlen aus echten Unternehmensaudits.
Die DSGVO-Dimension: Vier klassische Verstöße auf einmal
Für deutsche Unternehmen ist die rechtliche Dimension besonders ernst. Shadow AI schafft gleich mehrere DSGVO-Verstöße gleichzeitig:
Keine Rechtsgrundlage (Art. 6 DSGVO)
Wer Kundendaten in ein nicht genehmigtes KI-Tool eingibt, hat weder Einwilligung eingeholt noch einen Auftragsverarbeitungsvertrag (AVV) geschlossen.
Drittlandübermittlung ohne Schutzmaßnahmen (Art. 44–49 DSGVO)
Die meisten öffentlichen KI-Dienste betreiben ihre Server in den USA – ohne AVV ist jede Übermittlung personenbezogener Daten ein Verstoß. Ein einziger Chat kann dutzende betroffene Personen umfassen und damit den Schadensumfang massiv erhöhen.
Verletzung der Informationspflichten
Betroffene haben das Recht zu wissen, dass und vor allem wofür ihre Daten verarbeitet werden. Bei Shadow AI ist das schlicht unmöglich nachzuweisen.
Lückenhaftes Verzeichnis der Verarbeitungstätigkeiten (Art. 30 DSGVO)
Shadow-AI-Nutzung taucht dort definitionsgemäß bei den wenigsten Unternehmen auf.
Die deutschen Datenschutzaufsichtsbehörden werden aktiver. Es ist nur eine Frage der Zeit, bis der erste große Shadow-AI-Fall öffentlich wird.
Warum ein einfaches Verbot nicht funktioniert
Die erste Reaktion vieler IT-Abteilungen ist oft ein wenig planlos und hat wenig Voraussicht. Die Lösung ist oft, einfach alles blockieren. Diesen, meiner Meinung nach falschen Weg, geht übrigens gerade das EU Parlament mit dem deaktivieren der KI-Funktionen auf den Endgeräten der Abgeordneten. Der Hintergrund is verständlich, löst aber wahrscheinlich das Problem nicht nachhaltig.
Der Mitarbeiter, dem ChatGPT oder Copilot gesperrt wird, nutzt es auf dem Privathandy und schickt die Ergebnisse per privater E-Mail zurück. Das Datenleck ist größer als zuvor. Verbote ohne Alternativen schaffen nicht weniger Shadow AI, sondern leider mehr und das auch nicht mehr durch entsprechende CASB Systeme kontrollierbar.
Die richtige Antwort ist nicht Restriktion, sondern kontrollierte und überwachte Bereitstellung. Nebenbei, auch aus Kostensicht ein guter Ansatz.
Der Weg raus, ein pragmatischer Governance-Rahmen
Schritt 1: Bestandsaufnahme
Bevor Sie regulieren, müssen Sie wissen, was tatsächlich im Einsatz ist. Tools wie Netskope, Microsoft Defender for Cloud Apps oder Zscaler schaffen vollständige Transparenz, auch über versteckte KI-Features in bestehenden SaaS-Tools.
Schritt 2: Genehmigten KI-Stack aufbauen
Geben Sie Ihren Mitarbeitern sichere Alternativen, bevor Sie anfangen zu sperren:
- Microsoft 365 Copilot mit aktiviertem EU Data Boundary
- Azure OpenAI Service – Daten verlassen nicht Ihren Tenant
- Aleph Alpha – deutsches LLM, DSGVO-nativ, BSI-geprüft
- Mistral AI - deutsch/französisches AI Startup
- On-Premises-Lösungen (z.B. Ollama) für hochsensible Bereiche
- Nenna.ai deutsches Tool für DSGVO-konformes Prompt-Management und automatische Datenanonymisierung vor der KI-Übermittlung
Schritt 3: AI Acceptable Use Policy
Regeln Sie schriftlich, welche Tools genehmigt sind und welche Daten an eine KI gesendet werden dürfen. Klären Sie auch, was bei Verstößen passiert. Und meine persönliche Empfehlung, binden Sie den Betriebsrat frühzeitig mit ein, denn KI am Arbeitsplatz berührt die Mitbestimmungsrechte nach § 87 BetrVG. Lieber vorher drüber sprechen, als nachher zu streiten.
Schritt 4: Technische Schutzmaßnahmen
- DLP-Systeme konfigurieren, um das Hochladen sensibler Daten zu erkennen.
- CASB-Lösungen für Sichtbarkeit und Kontrolle über alle Cloud-Dienste.
- Regelmäßige Shadow-AI-Audits mindestens quartalsweise.
Das wären auch Punkte, bei denen über einen Managed Service nachgedacht werden sollte.
Quick Wins vs. langfristige Strategie
| Zeitraum | Maßnahme |
|---|---|
| 0–4 Wochen | Mitarbeiterbefragung starten, AI Use Policy veröffentlichen, DLP-Regeln einrichten |
| 1–6 Monate | Genehmigten KI-Stack ausrollen, Schulungen, Betriebsvereinbarung, AVV-Prüfung |
| 6–18 Monate | AI Governance Framework, Agenten-Register, Integration ins bestehende ISMS |
Zur Budgetorientierung für ein mittelständiges Unternehmen mit etwa 200–1.000 Mitarbeiter:
- Ein CASB/DLP-Toolstack verursacht Kosten zwischen 15 bis 40 € pro User/Monat,
- ein externes AI-Governance-Framework zwischen ca. 15.000 bis 50.000 €.
Gegenrechnung: Ein einziger DSGVO-Verstoß kann Bußgelder von bis zu 4% des weltweiten Jahresumsatzes bedeuten! Zugegeben, das wird eher selten verhängt, aber Geldbußen im sechstelligen Bereich sind sehr realistisch.
Kleiner tip
Viele deutsche Mittelständler haben bereits einen CASB in ihrer Microsoft-Lizenz und wissen es nicht. Das wäre mein erster Check bevor jemand etwas neues einkauft und implementieren möchte.
Shadow AI ist kein IT-Problem – es ist ein Führungsthema
Shadow AI entsteht nicht, weil Mitarbeiter böswillig sind. Sie entsteht, weil Menschen ihre Arbeit gut machen wollen und KI-Tools dabei wirklich helfen. Die Frage ist nicht ob KI im Unternehmen genutzt wird, sondern wie und in welchem Rahmen.
Wer jetzt einen klaren Governance-Rahmen schafft, positioniert KI-Compliance als Wettbewerbsvorteil, denn Kunden, Partner und Behörden werden künftig immer mehr Transparenz darüber verlangen, wie Unternehmen mit KI und Daten umgehen.
Fazit und Ausblick
Shadow AI ist also schon mit der DSGVO allein ein Compliance-Albtraum. Aber keine Sorge, der Gesetzgeber hat noch nachgelegt. Den EU AI Act habe ich in diesem Artikel bewusst ausgeklammert, sonst wäre das hier kein Blogartikel geworden, sondern eher ein psychiatrisches Gutachten über den Zustand der deutschen IT-Governance. Das kommt allerdings noch in einem nächsten Artikel. Sie dürfen schon mal wieder Kaffee kochen, viel Kaffee.
Shadow AI Risiko-Checkliste
Wie sicher ist Ihr Unternehmen?
-
Wie hoch ist das tatsächliche Shadow-AI-Risiko in Ihrem Unternehmen?
Mit unserer kompakten Checkliste erhalten Sie eine strukturierte Einschätzung Ihrer aktuellen Situation. Beantworten Sie die Fragen ehrlich und nutzen Sie die Ergebnisse als Grundlage für Ihre interne Sicherheits- und Governance-Strategie.
Jetzt kostenlos Assessment durchführen und Klarheit schaffen