Drie Engineeringteams, Drie Incidenten, Één Maand
In april 2023 onthulde Samsung Semiconductor drie afzonderlijke incidenten waarin werknemers binnen een maand eigen gegevens naar ChatGPT hadden verzonden.
De incidenten stonden niet met elkaar in verband. Ze betroffen verschillende werknemers in verschillende rollen, die verschillende taken op verschillende dagen uitvoerden. Ze deelden slechts twee kenmerken: elke werknemer gebruikte ChatGPT om een legitiem werkdoel te bereiken, en elke werknemer verzond per ongeluk gegevens die Samsung niet had bedoeld te delen met de infrastructuur van OpenAI.
Incident 1: Een software-engineer was bezig met het debuggen van code met betrekking tot halfgeleiderapparatuur. Het debuggen van complexe systemen is een veelvoorkomende toepassing van AI-tools — code aan een AI-model geven en vragen om de bron van onverwacht gedrag te identificeren. De engineer plakte broncode van Samsung's eigen halfgeleiderapparatuursystemen in ChatGPT. De code bevatte intellectuele eigendom met betrekking tot Samsung's productieprocessen.
Incident 2: Een werknemer was een vergaderingssamenvatting aan het voorbereiden. AI-ondersteunde notulering en vergaderingssamenvatting zijn standaardwerktools geworden in verschillende sectoren. De werknemer diende vergadernotities in bij ChatGPT voor samenvatting. Die vergadernotities bevatten vertrouwelijke interne discussies — bedrijfsstrategie, technische roadmaps en andere informatie die Samsung als niet-publiek beschouwde.
Incident 3: Een derde werknemer zocht optimalisatievoorstellen voor een databasequery. Database-optimalisatie is een technisch veeleisende taak waarbij AI-assistentie echte waarde biedt. De werknemer gaf de databasestructuur en query-logica aan ChatGPT. De query-logica bevatte verwijzingen naar eigen gegevensstructuren en bedrijfslogica.
Waarom de Werknemers Het Doen
Geen van de drie Samsung-werknemers handelde onverantwoordelijk volgens hun eigen professionele normen. Ze gebruikten een AI-tool voor taken waarvoor AI-tools zijn ontworpen: code debuggen, tekst samenvatten, technische optimalisatie.
Het ontbrekende element in elk geval was technische wrijving. Geen enkel systeem onderschepte de indiening voordat deze de servers van OpenAI bereikte. Geen enkele controle markeerde eigen code-identificatoren voordat ze het bedrijfsnetwerk verlieten. Geen enkele architectonische laag stond tussen de legitieme werkbehoefte van de werknemer en de infrastructuur van de AI-provider.
De werknemers waren rationeel. De AI-tool bood echte hulp bij legitieme werktaken. De beleidswaarschuwing bestond, maar stelde geen technische barrière in. De consequentie van niet-naleving — mogelijke disciplinaire actie voor een accidentele daad — was abstract en ver verwijderd vergeleken met het onmiddellijke productiviteitsvoordeel van de tool.
Het resultaat: drie incidenten in één maand, drie onthullingen van vertrouwelijke informatie en een bedrijfscrisis die een wereldwijde golf van AI-verboden in de onderneming veroorzaakte.
De Reactie van de Industrie
De interne reactie van Samsung was snel: de toegang tot ChatGPT werd beperkt voor bedrijfsapparaten. De onthulling veroorzaakte een bredere reactie in de industrie die onthulde hoe wijdverspreid de onderliggende toestand was.
De organisaties die AI-toolverboden of -beperkingen aankondigden na de onthulling van Samsung omvatten Bank of America, Citigroup, Goldman Sachs, JPMorgan Chase, Apple, en Verizon. De reactie van de financiële sector was bijzonder uitgebreid — meerdere grote instellingen concludeerden gelijktijdig dat het risicoprofiel van AI-tools zonder technische controles niet verenigbaar was met hun nalevingsverplichtingen.
Elke organisatie kwam tot dezelfde conclusie: de werknemers zijn niet het probleem, en beleidswaarschuwingen zijn geen voldoende controles. Gegevens verlieten hun netwerken omdat er geen technische barrière was die dit verhinderde, en beleid alleen kan geen technische barrière creëren.
Het 71,6% Omzeilpercentage
De verbodbenadering heeft een gedocumenteerde faalpercentage. Onderzoek van LayerX uit 2025 vond dat 71,6% van de werknemers die onderworpen zijn aan bedrijfs-AI-verboden AI-tools bleven gebruiken via persoonlijke accounts of apparaten.
Het omzeilpercentage weerspiegelt basaal gedrag: wanneer een tool echte productiviteitswaarde biedt, vinden gebruikers alternatieven in plaats van de tool permanent te verlaten. Een werknemer die ontdekt dat AI-assistentie hun werkoutput aanzienlijk versnelt, zal niet stoppen met het gebruik van die tools omdat het bedrijfsbeleid dit op bedrijfsapparaten verbiedt. Ze zullen persoonlijke accounts op persoonlijke apparaten gebruiken via kanalen die het beveiligingsteam niet kan zien.
De praktische consequentie van het 71,6% omzeilpercentage is dat het AI-verbod het slechtst mogelijke resultaat behaalt: bedrijfsgegevens bereiken AI-providers via kanalen zonder enige beveiligingscontroles. Tenminste de toegang tot bedrijfsapparaten zou theoretisch kunnen worden gemonitord. Het gebruik van persoonlijke accounts is volledig onzichtbaar voor het beveiligingsteam.
De drie incidenten van Samsung vonden plaats op bedrijfsapparaten via bedrijfsaccess. De werknemers die het verbod omzeilen, doen hetzelfde — het verstrekken van werkgerelateerde gegevens aan AI-modellen — via kanalen zonder toezicht van de onderneming.
De Technische Controle Die de Oorzaak Aanpakt
De incidenten bij Samsung werden niet veroorzaakt door nalatigheid van de werknemers. Ze werden veroorzaakt door een architectuur die geen onderscheppingslaag bood tussen het gebruik van AI door werknemers en externe AI-infrastructuur.
Model Context Protocol (MCP) architectuur biedt een transparante proxy tussen AI-clients en AI-model API's. Voor ontwikkelaars die Claude Desktop of Cursor IDE gebruiken — de primaire tools voor het type code debuggen dat het eerste incident van Samsung veroorzaakte — zit de MCP Server in het protocolpad.
Voordat enige tekst het AI-model bereikt, verwerkt de MCP Server deze via een anonimiseringsengine. Broncode wordt geanalyseerd op eigen identificatoren: functienamen, variabelenamen, interne API-eindpunten, details van databaseschema's, configuratiewaarden. Deze worden vervangen door gestructureerde tokens voordat de code het AI-model bereikt.
Een ontwikkelaar die Claude vraagt om eigen Samsung-halfgeleidercode te debuggen via een MCP Server uitgerust met anonimiseringsfuncties, zou code verzenden waarin eigen identificatoren waren vervangen door tokens. Het AI-model helpt met de debugtaak met behulp van de geanonimiseerde code — wat voldoende is voor code-analyse. De eigen specificaties bereiken nooit de servers van de AI-provider.
Incident 1 wordt technisch onmogelijk. De broncode verlaat het netwerk in geanonimiseerde vorm. De AI biedt de debughulp die de engineer nodig had. De intellectuele eigendom van Samsung blijft onder controle van Samsung.
Dezelfde architectuur is van toepassing op Incident 2 (samenvatting van vergadernotities via browser-gebaseerde AI, behandeld door de Chrome-extensie) en Incident 3 (optimalisatie van databasequery's via elke AI-codinginterface, behandeld door MCP-anonimisatie).
De incidenten bij Samsung waren een voorproefje van een systematisch probleem. De technische controles die de oorzaak aanpakken, bestaan nu. De vraag is of ondernemingen ze zullen implementeren of blijven vertrouwen op verboden die 71,6% van hun werknemers al omzeilen.
Bronnen: