Drei Ingenieurteams, drei Vorfälle, ein Monat
Im April 2023 gab Samsung Semiconductor drei separate Vorfälle bekannt, bei denen Mitarbeiter innerhalb eines einzigen Monats proprietäre Daten an ChatGPT übermittelt hatten.
Die Vorfälle standen nicht miteinander in Verbindung. Sie betrafen verschiedene Mitarbeiter in unterschiedlichen Rollen, die an verschiedenen Tagen unterschiedliche Aufgaben verfolgten. Sie hatten nur zwei Gemeinsamkeiten: Jeder Mitarbeiter nutzte ChatGPT, um ein legitimes Arbeitsziel zu erreichen, und jeder übermittelte versehentlich Daten, die Samsung nicht mit der Infrastruktur von OpenAI teilen wollte.
Vorfall 1: Ein Softwareingenieur debuggte Code, der mit Halbleiterausrüstung zusammenhing. Das Debuggen komplexer Systeme ist ein gängiger Anwendungsfall für KI-Tools – Code an ein KI-Modell zu übergeben und es zu bitten, die Quelle unerwarteten Verhaltens zu identifizieren. Der Ingenieur fügte Quellcode aus Samsungs proprietären Halbleiterausrüstungssystemen in ChatGPT ein. Der Code enthielt geistiges Eigentum, das mit Samsungs Fertigungsprozessen zusammenhing.
Vorfall 2: Ein Mitarbeiter bereitete eine Zusammenfassung eines Meetings vor. KI-unterstütztes Notieren und Zusammenfassen von Meetings sind zu Standard-Workflow-Tools in verschiedenen Branchen geworden. Der Mitarbeiter reichte die Meetingnotizen bei ChatGPT zur Zusammenfassung ein. Diese Meetingnotizen enthielten vertrauliche interne Diskussionen – Geschäftsstrategien, technische Fahrpläne und andere Informationen, die Samsung als nicht öffentlich betrachtete.
Vorfall 3: Ein dritter Mitarbeiter suchte nach Optimierungsvorschlägen für eine Datenbankabfrage. Die Datenbankoptimierung ist eine technisch anspruchsvolle Aufgabe, bei der KI-Unterstützung echten Wert bietet. Der Mitarbeiter stellte die Datenbankstruktur und die Abfragesyntax ChatGPT zur Verfügung. Die Abfragesyntax enthielt Verweise auf proprietäre Datenstrukturen und Geschäftslogik.
Warum die Mitarbeiter es taten
Keiner der drei Samsung-Mitarbeiter handelte nach eigenen beruflichen Standards verantwortungslos. Sie verwendeten ein KI-Tool für Aufgaben, bei denen KI-Tools Hilfe leisten sollen: Code-Debugging, Textzusammenfassung, technische Optimierung.
Das fehlende Element in jedem Fall war technische Reibung. Kein System griff die Übermittlung ab, bevor sie die Server von OpenAI erreichte. Keine Kontrolle kennzeichnete proprietäre Code-Identifikatoren, bevor sie das Unternehmensnetzwerk verließen. Keine architektonische Schicht stand zwischen dem legitimen Arbeitsbedarf des Mitarbeiters und der Infrastruktur des KI-Anbieters.
Die Mitarbeiter handelten rational. Das KI-Tool bot echte Unterstützung bei legitimen Arbeitsaufgaben. Die Richtlinienwarnung existierte, stellte jedoch kein technisches Hindernis dar. Die Konsequenz der Nichteinhaltung – mögliche disziplinarische Maßnahmen für einen versehentlichen Akt – war abstrakt und fern im Vergleich zum unmittelbaren Produktivitätsvorteil des Tools.
Das Ergebnis: drei Vorfälle in einem Monat, drei Offenlegungen proprietärer Informationen und eine Unternehmenskrise, die eine globale Welle von Unternehmens-KI-Verboten auslöste.
Die Reaktion der Branche
Die interne Reaktion von Samsung war schnell: Der Zugang zu ChatGPT wurde für Unternehmensgeräte eingeschränkt. Die Offenlegung löste eine breitere Branchenreaktion aus, die offenbarte, wie weit verbreitet die zugrunde liegende Bedingung war.
Die Organisationen, die nach der Offenlegung von Samsung KI-Toolverbote oder -einschränkungen ankündigten, umfassten Bank of America, Citigroup, Goldman Sachs, JPMorgan Chase, Apple und Verizon. Die Reaktion des Finanzsektors war besonders umfassend – mehrere große Institutionen kamen gleichzeitig zu dem Schluss, dass das Risikoprofil von KI-Tools ohne technische Kontrollen mit ihren Compliance-Verpflichtungen unvereinbar war.
Jede Organisation kam zu demselben Schluss: Die Mitarbeiter sind nicht das Problem, und Richtlinienwarnungen sind keine ausreichenden Kontrollen. Daten verließen ihre Netzwerke, weil kein technisches Hindernis sie daran hinderte, und Richtlinien allein können kein technisches Hindernis schaffen.
Die Umgehungsrate von 71,6%
Der Verbotansatz hat eine dokumentierte Ausfallrate. Die LayerX-Forschung aus dem Jahr 2025 ergab, dass 71,6% der Mitarbeiter, die Unternehmens-KI-Verboten unterliegen, weiterhin KI-Tools über persönliche Konten oder Geräte nutzten.
Die Umgehungsrate spiegelt grundlegendes Verhalten wider: Wenn ein Tool echten Produktivitätswert bietet, finden Benutzer Umgehungen, anstatt das Tool dauerhaft aufzugeben. Ein Mitarbeiter, der entdeckt, dass KI-Unterstützung seine Arbeitsleistung erheblich beschleunigt, wird die Verwendung dieser Tools nicht einstellen, weil die Unternehmensrichtlinien sie auf Unternehmensgeräten verbieten. Sie werden persönliche Konten auf persönlichen Geräten über Kanäle nutzen, die das Sicherheitsteam nicht sehen kann.
Die praktische Konsequenz der Umgehungsrate von 71,6% ist, dass das KI-Verbot das schlechteste mögliche Ergebnis erzielt: Unternehmensdaten gelangen über Kanäle ohne Sicherheitskontrollen zu KI-Anbietern. Der Zugang zu Unternehmensgeräten könnte theoretisch überwacht werden. Die Nutzung persönlicher Konten ist für das Sicherheitsteam völlig unsichtbar.
Die drei Vorfälle von Samsung geschahen auf Unternehmensgeräten über den Unternehmenszugang. Die Mitarbeiter, die das Verbot umgehen, tun dasselbe – sie liefern arbeitsbezogene Daten an KI-Modelle – über Kanäle ohne Unternehmensaufsicht.
Die technische Kontrolle, die die Grundursache angeht
Die Vorfälle bei Samsung wurden nicht durch Nachlässigkeit der Mitarbeiter verursacht. Sie wurden durch eine Architektur verursacht, die keine Abfangschicht zwischen der Nutzung von KI durch Mitarbeiter und der externen KI-Infrastruktur bereitstellte.
Die Model Context Protocol (MCP)-Architektur bietet einen transparenten Proxy zwischen KI-Clients und KI-Modell-APIs. Für Entwickler, die Claude Desktop oder Cursor IDE verwenden – die Hauptwerkzeuge für die Art des Code-Debuggings, das den ersten Vorfall von Samsung verursachte – sitzt der MCP-Server im Protokollpfad.
Bevor ein Text das KI-Modell erreicht, verarbeitet der MCP-Server ihn durch eine Anonymisierungs-Engine. Quellcode wird auf proprietäre Identifikatoren analysiert: Funktionsnamen, Variablennamen, interne API-Endpunkte, Datenbankschemas und Konfigurationswerte. Diese werden durch strukturierte Tokens ersetzt, bevor der Code das KI-Modell erreicht.
Ein Entwickler, der Claude bittet, proprietären Samsung-Halbleitercode über einen mit Anonymisierung ausgestatteten MCP-Server zu debuggen, würde Code übermitteln, in dem proprietäre Identifikatoren durch Tokens ersetzt wurden. Das KI-Modell hilft bei der Debugging-Aufgabe mit dem anonymisierten Code – was für die Codeanalyse ausreicht. Die proprietären Details erreichen niemals die Server des KI-Anbieters.
Vorfall 1 wird technisch unmöglich. Der Quellcode verlässt das Netzwerk in anonymisierter Form. Die KI bietet die Debugging-Unterstützung, die der Ingenieur benötigte. Das geistige Eigentum von Samsung bleibt unter der Kontrolle von Samsung.
Die gleiche Architektur gilt für Vorfall 2 (Zusammenfassung von Meetingnotizen über KI im Browser, behandelt durch die Chrome-Erweiterung) und Vorfall 3 (Datenbankabfrageoptimierung über jede KI-Coding-Schnittstelle, behandelt durch MCP-Anonymisierung).
Die Vorfälle von Samsung waren eine Vorschau auf ein systematisches Problem. Die technischen Kontrollen, die die Grundursache angehen, existieren jetzt. Die Frage ist, ob Unternehmen sie implementieren oder weiterhin auf Verbote setzen, die 71,6% ihrer Mitarbeiter bereits umgehen.
Quellen: