Zurück zum BlogKI-Sicherheit

Von FEMA zu Finanzen: Warum KI-Richtlinien ohne...

77% der Mitarbeiter teilen sensible Arbeitsdaten mit KI-Tools, obwohl Richtlinien dies verbieten.

April 4, 20268 min Lesezeit
AI data governancetechnical controlsChatGPT policy failureChrome Extension DLPenterprise AI security

Wenn Richtlinien auf menschliches Verhalten treffen

Ein Regierungsauftragnehmer, der unter Zeitdruck steht, um FEMA-Fluthilfegesuche zu bearbeiten, hat Namen, Adressen, Kontaktdaten und Gesundheitsdaten von Katastrophenbewerbern in ChatGPT eingefügt, um die Informationen schneller zu verarbeiten. Die Absicht war nicht böswillig – es war eine Produktivitätsentscheidung, die unter Druck getroffen wurde. Das Ergebnis war eine Regierungsuntersuchung, eine öffentliche Offenlegung und ein dokumentierter Vorfall, der den grundlegenden Fehlermodus der rein richtlinienbasierten KI-Governance veranschaulicht.

77% der Unternehmensmitarbeiter teilen mindestens wöchentlich sensible Arbeitsinformationen mit KI-Tools, obwohl Richtlinien dies verbieten (eSecurity Planet/Cyberhaven 2025). Die Zahl von 77% spiegelt nicht eine Belegschaft von Richtlinienverletzern wider, sondern die Realität, wie KI-Tools angenommen wurden: als Produktivitätswerkzeuge, die Mitarbeiter reflexartig in Zeiten von Zeitdruck, sich wiederholenden Aufgaben oder komplexen Analyseanforderungen nutzen.

Die Analyse von Cyberhaven für Q4 2025 ergab, dass 34,8% aller ChatGPT-Eingaben vertrauliche Geschäftsdaten enthalten. Diese Zahl umfasst Mitarbeiter, die sich der Richtlinien zur Nutzung von KI bewusst sind und nicht die Absicht haben, diese zu verletzen – sie haben die Daten, die sie eingefügt haben, einfach nicht in dem Moment als "vertraulich" kategorisiert.

Das Problem der Richtlinienkonformität

Richtlinien zur Nutzung von KI sehen eine inhärente Durchsetzungslücke vor. Im Gegensatz zu Zugriffskontrollrichtlinien (die technisch durch Authentifizierung durchgesetzt werden können) oder Datenklassifizierungsrichtlinien (die durch DLP auf der E-Mail-/Speicherebene durchgesetzt werden können), hängen Richtlinien zur Nutzung von KI von menschlichem Urteilsvermögen im Moment der Dateneingabe ab.

Der Moment, in dem ein Mitarbeiter entscheidet, Kundendaten in ChatGPT einzufügen, ist eine sekundenbruchteilige Verhaltensentscheidung. Der Mitarbeiter erinnert sich möglicherweise nicht an die Richtlinie, hat möglicherweise berechnet, dass der Effizienzgewinn das wahrgenommene Risiko überwiegt, oder erkennt möglicherweise die Daten nicht als durch die Richtlinie abgedeckt. Schulungen zur Richtlinienkonformität reduzieren die Häufigkeit dieser Entscheidung, können sie jedoch nicht im großen Maßstab eliminieren.

Der FEMA-Vorfall demonstriert den Archetyp: ein Auftragnehmer, der mit einer großen Anzahl von Anträgen, einer Frist und Zugang zu einem leistungsstarken Zusammenfassungstool konfrontiert ist. Die Einhaltung der Richtlinie erforderte die Wahl der manuellen Verarbeitung über die Unterstützung durch KI. Unter Zeitdruck gewann das Tool.

Technische Kontrollen auf der Anwendungsebene

Der einzige Governance-Ansatz, der diesen Fehlermodus anspricht, arbeitet auf technischer Ebene und nicht auf der Richtlinienebene. Die Chrome-Erweiterung fängt den Inhalt der Zwischenablage ab, bevor er eine webbasierte KI-Schnittstelle erreicht – ChatGPT, Gemini, Claude.ai, Perplexity oder andere. Die Abfangung erfolgt automatisch; sie hängt nicht davon ab, dass der Benutzer sich erinnert, eine Richtlinie anzuwenden.

Wenn der FEMA-Auftragnehmer die Namen und Adressen der Antragsteller aus dem Fallmanagementsystem kopiert und in ChatGPT einfügt, erkennt die Erweiterung die PII im Inhalt der Zwischenablage, anonymisiert sie und übermittelt die anonymisierte Version. Der Auftragnehmer sieht ein Vorschaufenster, das zeigt, was vor der Einreichung ersetzt wird. Die KI erhält anonymisierte Daten und kann die Zusammenfassungsaufgabe weiterhin ausführen. Der Name, die Adresse und die Gesundheitsdaten des Antragstellers erreichen niemals die Server von ChatGPT.

Für Organisationen, deren Governance-Bedenken sich auf Codierungswerkzeuge (Cursor, GitHub Copilot) konzentrieren, bietet der MCP-Server die entsprechende Kontrolle auf der Anwendungsebene. Code, der in den Kontext des KI-Modells eingefügt wird, wird abgefangen, Anmeldeinformationen und proprietäre Identifikatoren werden durch Token ersetzt, und die KI erhält die anonymisierte Version. Beide Kanäle – browserbasierte KI und IDE-basierte KI – können durch technische Kontrollen geschützt werden, die unabhängig vom Benutzerverhalten arbeiten.

Das Szenario des FEMA-Auftragnehmers hätte mit implementierten technischen Kontrollen ein anderes Ergebnis gehabt. Der Auftragnehmer hätte die Anträge effizient bearbeiten können; die Antragsdaten wären niemals in ChatGPT gelangt; die Untersuchung wäre nicht ausgelöst worden. Schulungen zur Richtlinienkonformität haben den Vorfall nicht verhindert. Eine technische Abfangschicht hätte dies getan.

Quellen:

Bereit, Ihre Daten zu schützen?

Beginnen Sie mit der Anonymisierung von PII mit über 285 Entitätstypen in 48 Sprachen.