Zurück zum BlogKI-Sicherheit

KI ist jetzt der #1 Vektor für Datenexfiltration—Hier...

77% der Mitarbeiter fügen sensible Daten in KI-Tools ein. GenAI macht jetzt 32% aller Unternehmensdatenexfiltration aus.

February 17, 20268 min Lesezeit
AI securityChatGPTdata leakageenterprise security

Die Krise der KI-Datenlecks

Im Oktober 2025 veröffentlichte LayerX Security Erkenntnisse, die jeden CISO alarmieren sollten: 77% der Mitarbeiter fügen Daten in GenAI-Tools ein, wobei 82% dieser Aktivitäten von nicht verwalteten persönlichen Konten stammen.

Noch besorgniserregender: GenAI macht jetzt 32% aller Unternehmensdatenexfiltration aus—was es zum #1 Vektor für unbefugte Datenbewegungen im Unternehmen macht.

Das ist kein zukünftiges Problem. Es passiert gerade jetzt, jeden Tag, in Ihrer Organisation.

Die Zahlen sind erschreckend

ErkenntnisDatenQuelle
Mitarbeiter, die Daten in KI einfügen77%LayerX 2025
Datenexfiltration über KI-Tools32%LayerX 2025
ChatGPT-Nutzung über nicht verwaltete Konten67%LayerX 2025
Tägliche Einfügungen über persönliche Konten14 pro MitarbeiterLayerX 2025
Einfügungen mit sensiblen Daten3+ pro TagLayerX 2025

Im Durchschnitt führen Mitarbeiter 14 Einfügungen pro Tag über persönliche Konten durch, wobei mindestens drei sensible Daten enthalten. Traditionelle DLP-Tools, die auf dateizentrierter Überwachung basieren, registrieren diese Aktivitäten nicht einmal.

Warum ein Verbot von KI nicht funktioniert

Samsung versuchte, ChatGPT zu verbieten, nachdem Mitarbeiter Quellcode geleakt hatten. Es hat nicht funktioniert.

Die Realität ist, dass KI-Tools die Produktivität der Mitarbeiter erheblich steigern. Laut Forschung erledigen Entwickler, die KI-Assistenten nutzen, Aufgaben 55% schneller. Wenn Sie KI verbieten, tun die Mitarbeiter entweder:

  1. Nutzen sie es trotzdem über persönliche Konten (67% tun dies bereits)
  2. Verlieren sie an Produktivität und werden frustriert
  3. Wechseln sie zu Wettbewerbern, die KI nutzen

Die Antwort ist nicht Verbot—es ist Schutz.

Der Verstoß gegen die Chrome-Erweiterung mit 900.000 Nutzern

Im Dezember 2025 entdeckte OX Security zwei bösartige Chrome-Erweiterungen, die Gespräche von ChatGPT und DeepSeek von über 900.000 Nutzern gestohlen hatten.

Eine dieser Erweiterungen hatte das "Featured"-Abzeichen von Google—das angebliche Zeichen für Vertrauenswürdigkeit.

Die Erweiterungen funktionierten, indem sie:

  • Chat-Gespräche in Echtzeit abfingen
  • Daten lokal auf den Maschinen der Opfer speicherten
  • alle 30 Minuten Datenmengen an Command-and-Control-Server exfiltrierten

Noch schlimmer: Eine separate Untersuchung ergab, dass "kostenlose VPN"-Erweiterungen mit über 8 Millionen Downloads seit Juli 2025 KI-Gespräche erfassten.

Die Lösung: Abfangen vor der Übermittlung

Der einzige Weg, KI sicher zu nutzen und sensible Daten zu schützen, besteht darin, PII zu anonymisieren, bevor sie das KI-Modell erreicht.

Genau das tun die Chrome-Erweiterung und der MCP-Server von anonym.legal:

Chrome-Erweiterung

  • Fängt Text ab, bevor Sie ihn an ChatGPT, Claude oder Gemini senden
  • Erkennt und anonymisiert automatisch PII (Namen, E-Mails, SSNs usw.)
  • Ersetzt sensible Daten durch Tokens: "John Smith" → "[PERSON_1]"
  • De-anonymisiert KI-Antworten, sodass Sie die ursprünglichen Namen sehen

MCP-Server (für Entwickler)

  • Integriert sich mit Claude Desktop, Cursor und VS Code
  • Transparenter Proxy—Sie interagieren normal mit KI
  • PII wird anonymisiert, bevor die Eingabeaufforderungen das Modell erreichen
  • Funktioniert mit Ihren bestehenden Workflows

Was geschützt wird

Beide Tools erkennen und anonymisieren 285+ Entitätstypen in 48 Sprachen:

  • Persönlich: Namen, E-Mail-Adressen, Telefonnummern, Geburtsdaten
  • Finanziell: Kreditkartennummern, Bankkonten, IBANs
  • Regierung: SSNs, Reisepassnummern, Führerscheine
  • Gesundheitswesen: Medizinische Aktennummern, Patienten-IDs
  • Unternehmen: Mitarbeiter-IDs, interne Kontonummern

Selbst wenn Ihr KI-Chatverlauf kompromittiert ist (wie bei diesen 900.000 Nutzern), gibt es keine wiederherstellbaren PII—nur anonymisierte Tokens.

Implementierung: 5 Minuten bis zum Schutz

Chrome-Erweiterung

  1. Herunterladen von anonym.legal/features/chrome-extension
  2. Mit Ihrem anonym.legal-Konto anmelden
  3. Besuchen Sie ChatGPT, Claude oder Gemini
  4. Normal eingeben—PII wird automatisch erkannt und anonymisiert, bevor sie gesendet wird

MCP-Server (für Claude Desktop)

Fügen Sie Ihrer claude_desktop_config.json hinzu:

{
  "mcpServers": {
    "anonym-legal": {
      "command": "npx",
      "args": ["-y", "@anthropic/mcp-server-anonym-legal"],
      "env": {
        "ANONYM_API_KEY": "your-api-key"
      }
    }
  }
}

Die Kosten der Untätigkeit

Berücksichtigen Sie, was auf dem Spiel steht:

  • Finanzdaten, die in KI zur Analyse eingefügt werden
  • Kundeninformationen, die in Supportanfragen verwendet werden
  • Quellcode, der zum Debuggen geteilt wird
  • Rechtsdokumente, die von KI zusammengefasst werden
  • Gesundheitsakten, die zur Analyse verarbeitet werden

Ein einziger Datenverstoß kostet im Durchschnitt 4,88 Millionen USD (IBM 2024). Der durchschnittliche Verstoß im Gesundheitswesen kostet jetzt 7,42 Millionen USD (IBM 2025)—ein Rückgang von 9,77 Millionen USD im Jahr 2024, aber immer noch weit über allen anderen Branchen.

Die Chrome-Erweiterung ist kostenlos. Der MCP-Server ist in Pro-Plänen ab 15 €/Monat enthalten.

Fazit

KI ist hier, um zu bleiben. Ihre Mitarbeiter nutzen sie bereits—die Frage ist, ob sie dies sicher tun.

Die Erkenntnisse von LayerX machen deutlich: Traditionelle Sicherheitsansätze sind blind gegenüber der Datenexfiltration durch KI. Sie benötigen Tools, die speziell entwickelt wurden, um Daten zu schützen, bevor sie KI-Modelle erreichen.

Beginnen Sie noch heute, Ihre Organisation zu schützen:


Quellen:

Bereit, Ihre Daten zu schützen?

Beginnen Sie mit der Anonymisierung von PII mit über 285 Entitätstypen in 48 Sprachen.