Tre Ingeniørteam, Tre Hendelser, Én Måned
I april 2023 avslørte Samsung Semiconductor tre separate hendelser der ansatte hadde overført proprietære data til ChatGPT innen en enkelt måned.
Hendelsene var ikke relatert til hverandre. De involverte forskjellige ansatte i forskjellige roller, som utførte forskjellige oppgaver, på forskjellige dager. De delte bare to kjennetegn: hver ansatt brukte ChatGPT for å oppnå et legitimt arbeidsmål, og hver uforvarende overførte data som Samsung ikke hadde til hensikt å dele med OpenAIs infrastruktur.
Hendelse 1: En programvareingeniør feilsøkte kode relatert til halvlederutstyr. Feilsøking av komplekse systemer er et vanlig bruksområde for AI-verktøy — å gi kode til en AI-modell og be den identifisere kilden til uventet oppførsel. Ingeniøren limte inn kildekode fra Samsungs proprietære halvlederutstyrssystemer i ChatGPT. Koden inneholdt intellektuell eiendom relatert til Samsungs produksjonsprosesser.
Hendelse 2: En ansatt forberedte et møtesammendrag. AI-assistert notatskriving og møtesammendrag har blitt standard arbeidsverktøy på tvers av bransjer. Den ansatte sendte møtenotater til ChatGPT for sammendrag. Disse møtenotatene inneholdt konfidensielle interne diskusjoner — forretningsstrategi, tekniske veikart og annen informasjon som Samsung anså som ikke-offentlig.
Hendelse 3: En tredje ansatt søkte optimaliseringsforslag for en databaseforespørsel. Databaseoptimalisering er en teknisk krevende oppgave der AI-assistanse gir genuin verdi. Den ansatte ga database-strukturen og forespørsel-logikken til ChatGPT. Forespørsel-logikken inneholdt referanser til proprietære datastrukturer og forretningslogikk.
Hvorfor de Ansatte Gjorde Det
Ingen av de tre Samsung-ansatte handlet uansvarlig etter sine egne profesjonelle standarder. De brukte et AI-verktøy for oppgaver som AI-verktøy er designet for å bistå med: kodefeilsøking, tekstsammendrag, teknisk optimalisering.
Det manglende elementet i hvert tilfelle var teknisk friksjon. Ingen systemer fanget opp innleveringen før den nådde OpenAIs servere. Ingen kontroller flagget proprietære kodeidentifikatorer før de forlot det bedriftsnettverket. Ingen arkitektonisk lag sto mellom den ansattes legitime arbeidsbehov og AI-leverandørens infrastruktur.
De ansatte var rasjonelle. AI-verktøyet ga genuin assistanse med legitime arbeidsoppgaver. Politikkadvarselen eksisterte, men påla ingen teknisk barriere. Konsekvensen av manglende overholdelse — potensiell disiplinær handling for en utilsiktet handling — var abstrakt og fjern sammenlignet med den umiddelbare produktivitetsgevinsten fra verktøyet.
Resultatet: tre hendelser på én måned, tre avsløringer av proprietær informasjon, og en bedriftskrise som utløste en global bølge av AI-forbud for bedrifter.
Bransjens Respons
Samsungs interne respons var rask: ChatGPT-tilgang ble begrenset for bedriftsenheter. Avsløringen utløste en bredere bransjereaksjon som avdekket hvor utbredt den underliggende tilstanden var.
Organisasjonene som kunngjorde AI-verktøyforbud eller restriksjoner etter Samsungs avsløring inkluderte Bank of America, Citigroup, Goldman Sachs, JPMorgan Chase, Apple, og Verizon. Responsen fra finanssektoren var spesielt omfattende — flere store institusjoner konkluderte samtidig med at risikoprofilen til AI-verktøy uten tekniske kontroller var uforenlig med deres overholdelsesforpliktelser.
Hver organisasjon kom til den samme konklusjonen: de ansatte er ikke problemet, og politikkadvarsler er ikke tilstrekkelige kontroller. Data forlot nettverkene deres fordi ingen teknisk barriere hindret det, og politikk alene kan ikke skape en teknisk barriere.
71.6% Omgåelsesrate
Forbudstilnærmingen har en dokumentert feilrate. LayerX-forskning fra 2025 fant at 71.6% av ansatte som var underlagt AI-forbud for bedrifter fortsatte å bruke AI-verktøy gjennom personlige kontoer eller enheter.
Omgåelsesraten reflekterer grunnleggende atferd: når et verktøy gir genuin produktivitetsverdi, finner brukerne løsninger i stedet for å permanent gi opp verktøyet. En ansatt som oppdager at AI-assistanse betydelig akselererer arbeidsproduksjonen sin, vil ikke slutte å bruke disse verktøyene fordi bedriftspolitikken forbyr dem på bedriftsenheter. De vil bruke personlige kontoer på personlige enheter gjennom kanaler som sikkerhetsteamet ikke kan se.
Den praktiske konsekvensen av 71.6% omgåelsesrate er at AI-forbudet oppnår det dårligste mulige utfallet: bedriftsdata når AI-leverandører gjennom kanaler uten sikkerhetskontroller i det hele tatt. I det minste kunne tilgang til bedriftsenheter teoretisk overvåkes. Bruk av personlige kontoer er helt usynlig for sikkerhetsteamet.
Samsungs tre hendelser skjedde på bedriftsenheter gjennom bedriftsadgang. De ansatte som omgår forbudet gjør det samme — gir arbeidsrelaterte data til AI-modeller — gjennom kanaler uten bedriftsoversikt.
Den Tekniske Kontrollen Som Tar Tak i Rotårsaken
Samsungs hendelser ble ikke forårsaket av ansattes uaktsomhet. De ble forårsaket av en arkitektur som ikke ga noe avskjæringslag mellom ansattes AI-bruk og ekstern AI-infrastruktur.
Model Context Protocol (MCP) arkitektur gir en gjennomsiktig proxy mellom AI-klienter og AI-modell-APIer. For utviklere som bruker Claude Desktop eller Cursor IDE — de primære verktøyene for den typen kodefeilsøking som forårsaket Samsungs første hendelse — sitter MCP-serveren i protokollbanen.
Før noen tekst når AI-modellen, prosesserer MCP-serveren den gjennom en anonymiseringsmotor. Kildekode analyseres for proprietære identifikatorer: funksjonsnavn, variabelnavn, interne API-endepunkter, database-skjema detaljer, konfigurasjonsverdier. Disse blir erstattet med strukturerte tokens før koden når AI-modellen.
En utvikler som ber Claude om å feilsøke proprietær Samsung halvlederkode gjennom en MCP-server utstyrt med anonymisering, ville overføre kode der proprietære identifikatorer hadde blitt erstattet med tokens. AI-modellen bistår med feilsøkingsoppgaven ved hjelp av den anonymiserte koden — som er tilstrekkelig for kodeanalyse. Den proprietære spesifikasjonen når aldri AI-leverandørens servere.
Hendelse 1 blir teknisk umulig. Kildekoden forlater nettverket i anonymisert form. AI gir den feilsøkingsassistanse ingeniøren trengte. Samsungs intellektuelle eiendom forblir under Samsungs kontroll.
Den samme arkitekturen gjelder for Hendelse 2 (møtenotatsammendrag gjennom nettleserbasert AI, adressert av Chrome-utvidelsen) og Hendelse 3 (databaseforespørseloptimalisering gjennom hvilken som helst AI-koding grensesnitt, adressert av MCP-anonymisering).
Samsungs hendelser var en forhåndsvisning av et systematisk problem. De tekniske kontrollene som tar tak i rotårsaken eksisterer nå. Spørsmålet er om bedrifter vil implementere dem eller fortsette å stole på forbud som 71.6% av deres ansatte allerede omgår.
Kilder: