Zurück zum BlogKI-Sicherheit

Warum die Schulung zu Richtlinien nicht verhindert...

77 % der Unternehmens-AI-Nutzer kopieren Daten in Chatbot-Anfragen. Fast 40 % der hochgeladenen Dateien enthalten PII- oder PCI-Daten.

April 15, 20268 min Lesezeit
ChatGPT PII leak preventionChrome extension DLPenterprise AI policytechnical controls browsercopy-paste PII protection

Das Problem des Copy-Paste-Verhaltens

77 % der Unternehmens-AI-Nutzer kopieren Daten in Chatbot-Anfragen. Dieses Verhaltensmuster beschränkt sich nicht auf eine nicht konforme Minderheit – es ist die dominierende Interaktionsweise bei der Nutzung von Unternehmens-AI-Tools. Wenn Mitarbeiter auf ein komplexes Dokument, ein Kundenproblem oder eine analytische Aufgabe stoßen, besteht der natürliche Arbeitsablauf darin: den relevanten Inhalt kopieren, in das AI-Tool einfügen, eine Antwort erhalten.

Dieser Arbeitsablauf unterscheidet nicht zwischen Inhalten, die persönliche Daten enthalten, und solchen, die dies nicht tun. Die Copy-Paste-Aktion geht der Klassifikationsentscheidung voraus. Zu dem Zeitpunkt, an dem der Mitarbeiter den Inhalt eingefügt hat und die Antwort der AI liest, hat die Übertragung bereits stattgefunden. Die Schulung zu Richtlinien erfolgt im Moment der Klassifikation – "Sollte ich das einfügen?" – aber die Sekunde der Entscheidung bedeutet, dass das Erinnern an die Richtlinien unter kognitiver Belastung, Zeitdruck und gewohnheitsmäßigem Verhalten nachlässt.

Forschungen von Cyberhaven haben ergeben, dass fast 40 % der hochgeladenen Dateien in AI-Tools PII- oder PCI-Daten enthalten. Diese Zahl umfasst Mitarbeiter, die sich der Richtlinien zur Nutzung von AI bewusst sind: Sie laden die Datei hoch, an der sie arbeiten müssen, die zufällig Kundendaten enthält. Der Verstoß gegen die Richtlinien ist zufällig bei einer legitimen Aufgabe.

Warum Schulungen im großen Maßstab scheitern

Schulungsprogramme zu Richtlinien stehen vor der gleichen strukturellen Einschränkung in allen Kontexten des Datenschutzes: Sie versuchen, tief verwurzelte Verhaltensmuster durch regelmäßige Bildungsinterventionen zu ändern. Die Intervalle zwischen den Schulungssitzungen (typischerweise jährlich) überschreiten die Zeitkonstante des Verhaltensverfalls. Mitarbeiter, die im ersten Quartal eine gründliche Schulung zum Umgang mit AI-Daten erhalten haben, arbeiten im vierten Quartal hauptsächlich aus Gewohnheit.

Das im März 2025 vorgeschlagene Update der HIPAA-Sicherheitsregel – das jährliche Verschlüsselungsprüfungen erfordert – spiegelt die regulatorische Anerkennung wider, dass die Einhaltung von Richtlinien eine regelmäßige Überprüfung technischer Kontrollen erfordert, nicht nur Schulungsprogramme. Die Prüfungsanforderung impliziert, dass die Regulierungsbehörden erwarten, dass technische Kontrollen das primäre Mittel und Schulungen das ergänzende Mittel sind.

Für das spezifische Problem des Datenlecks durch AI ist es schwieriger, das Verhalten durch Schulungen zu verhindern als bei standardmäßigen Datenverhaltensweisen, da es in einem neuen Kontext auftritt (AI-Tools existierten nicht, als die meisten Unternehmensdatenverhaltensweisen entwickelt wurden) und da das Leck keine sofort sichtbaren negativen Konsequenzen für den Mitarbeiter hat.

Die Architektur der Chrome-Erweiterung zur Abfangung

Die Chrome-Erweiterung arbeitet auf der Ebene der Zwischenablage – bevor der eingefügte Inhalt das Eingabefeld des AI-Tools erreicht. Die Abfangung erfolgt architektonisch vor der Entscheidung des Benutzers, die Eingabe zu senden: Der Mitarbeiter kopiert Inhalte aus seiner Arbeitsanwendung, wechselt zum ChatGPT-Tab und fügt ein. Die Erweiterung erkennt PII im Inhalt der Zwischenablage im Moment des Einfügens, bevor der Inhalt im Eingabefeld erscheint.

Ein Vorschau-Modal zeigt dem Mitarbeiter genau, was anonymisiert wird: "Kundenname 'Maria Schmidt' → '[PERSON_1]'; E-Mail 'maria.schmidt@company.de' → '[EMAIL_1]'." Der Mitarbeiter kann mit der anonymisierten Version fortfahren oder das Einfügen abbrechen, wenn der spezifische Ersatz nicht akzeptabel ist.

Das Vorschau-Modal dient zwei Zwecken. Erstens bietet es Transparenz – die Mitarbeiter verstehen, was das Tool tut, was das angemessene Vertrauen aufbaut und die Wahrnehmung reduziert, dass Datenschutzkontrollen Überwachung sind. Zweitens macht es die Anonymisierungsentscheidung explizit statt still: Der Mitarbeiter bestätigt jede Anonymisierungsoperation, wodurch ein psychologischer Moment entsteht, in dem die Klassifikationsentscheidung (ist dies PII?) von einem Menschen und nicht automatisiert getroffen wird.

Für das Kundenserviceteam eines europäischen E-Commerce-Unternehmens: Die Agenten entwerfen Antworten mit ChatGPT und fügen Kundenkorrespondenz mit Namen, Bestellnummern und Adressen ein. Die Chrome-Erweiterung fängt jedes Einfügen ab, anonymisiert die persönlichen Daten und der Agent reicht die anonymisierte Eingabe ein. Die Antworten von ChatGPT beziehen sich auf die anonymisierten Tokens; der Agent kann die Vorschläge der AI lesen und in die tatsächliche Kundenantwort einarbeiten. Die Anforderungen der GDPR Artikel 5 zur Datenminimierung sind erfüllt; die Qualitätsverbesserung des Supports durch AI-Hilfe bleibt erhalten.

Quellen:

Bereit, Ihre Daten zu schützen?

Beginnen Sie mit der Anonymisierung von PII mit über 285 Entitätstypen in 48 Sprachen.