Tillbaka till BloggenAI-säkerhet

Hur Samsung förlorade proprietär källkod till ChatGPT...

Tre separata Samsung-ingenjörsteam klistrade in proprietär kod och konfidentiella data i ChatGPT i april 2023.

March 13, 20269 min läsning
Samsung ChatGPT leaksource code protectionenterprise AI controlsinsider data leakageMCP Server anonymization

Tre ingenjörsteam, tre incidenter, en månad

I april 2023 avslöjade Samsung Semiconductor tre separata incidenter där anställda hade överfört proprietära data till ChatGPT inom en enda månad.

Incidenterna var inte relaterade till varandra. De involverade olika anställda i olika roller, som utförde olika uppgifter, på olika dagar. De delade endast två egenskaper: varje anställd använde ChatGPT för att uppnå ett legitimt arbetsmål, och varje överförde av misstag data som Samsung inte hade avsett att dela med OpenAIs infrastruktur.

Incident 1: En mjukvaruingenjör felsökte kod relaterad till halvledarutrustning. Felsökning av komplexa system är ett vanligt användningsfall för AI-verktyg — att ge kod till en AI-modell och be den identifiera källan till oväntat beteende. Ingenjören klistrade in källkod från Samsungs proprietära halvledarutrustningssystem i ChatGPT. Koden innehöll immateriella rättigheter relaterade till Samsungs tillverkningsprocesser.

Incident 2: En anställd förberedde en mötes sammanfattning. AI-assisterad anteckningstagning och mötes sammanfattning har blivit standardarbetsverktyg över branscher. Den anställde skickade mötesanteckningar till ChatGPT för sammanfattning. Dessa mötesanteckningar innehöll konfidentiella interna diskussioner — affärsstrategi, tekniska vägkartor och annan information som Samsung ansåg vara icke-offentlig.

Incident 3: En tredje anställd sökte optimeringsförslag för en databasfråga. Databasoptimering är en tekniskt krävande uppgift där AI-assistans ger verkligt värde. Den anställde gav databasstrukturen och frågelogiken till ChatGPT. Frågelogiken innehöll referenser till proprietära datastrukturer och affärslogik.

Varför anställda gjorde det

Ingen av de tre Samsung-anställda agerade oansvarigt enligt sina egna professionella standarder. De använde ett AI-verktyg för uppgifter som AI-verktyg är designade för att hjälpa till med: kodfelsökning, textsammanfattning, teknisk optimering.

Den saknade faktorn i varje fall var teknisk friktion. Inget system avbröt överföringen innan den nådde OpenAIs servrar. Ingen kontroll flaggade proprietära kodidentifierare innan de lämnade det företagsnätverket. Ingen arkitektonisk lager stod mellan den anställdes legitima arbetsbehov och AI-leverantörens infrastruktur.

De anställda var rationella. AI-verktyget gav verklig hjälp med legitima arbetsuppgifter. Policyn fanns, men ålade ingen teknisk barriär. Konsekvensen av icke-efterlevnad — potentiella disciplinära åtgärder för en oavsiktlig handling — var abstrakt och avlägsen jämfört med den omedelbara produktivitetsfördelen av verktyget.

Resultatet: tre incidenter på en månad, tre avslöjanden av proprietär information, och en företagskris som utlöste en global våg av företags-AI-förbud.

Branschens svar

Samsungs interna svar var snabbt: ChatGPT-åtkomst begränsades för företagsenheter. Avslöjandet utlöste en bredare branschreaktion som avslöjade hur utbredd den underliggande situationen var.

De organisationer som meddelade AI-verktygsförbud eller begränsningar efter Samsungs avslöjande inkluderade Bank of America, Citigroup, Goldman Sachs, JPMorgan Chase, Apple och Verizon. Svar från den finansiella sektorn var särskilt omfattande — flera stora institutioner kom samtidigt fram till att riskprofilen för AI-verktyg utan tekniska kontroller var oförenlig med deras efterlevnadsåtaganden.

Varje organisation kom fram till samma slutsats: de anställda är inte problemet, och policyvarningar är inte tillräckliga kontroller. Data lämnade deras nätverk eftersom ingen teknisk barriär förhindrade det, och policy ensam kan inte skapa en teknisk barriär.

71,6% avvikelsefrekvens

Förbudsansatsen har en dokumenterad misslyckandefrekvens. LayerX-forskning från 2025 visade att 71,6% av anställda som omfattades av företags-AI-förbud fortsatte att använda AI-verktyg genom personliga konton eller enheter.

Avvikelsefrekvensen återspeglar grundläggande beteende: när ett verktyg ger verkligt produktivitetsvärde, hittar användare lösningar istället för att permanent överge verktyget. En anställd som upptäcker att AI-assistans avsevärt påskyndar deras arbetsresultat kommer inte att sluta använda dessa verktyg bara för att företags policyn förbjuder dem på företagsenheter. De kommer att använda personliga konton på personliga enheter genom kanaler som säkerhetsteamet inte kan se.

Den praktiska konsekvensen av 71,6% avvikelsefrekvens är att AI-förbudet uppnår det sämsta möjliga resultatet: företagsdata når AI-leverantörer genom kanaler utan säkerhetskontroller alls. Åtminstone skulle åtkomst till företagsenheter teoretiskt kunna övervakas. Användning av personliga konton är helt osynlig för säkerhetsteamet.

Samsungs tre incidenter inträffade på företagsenheter genom företagsåtkomst. De anställda som kringgår förbudet gör samma sak — tillhandahåller arbetsrelaterade data till AI-modeller — genom kanaler utan företagsövervakning.

Den tekniska kontrollen som adresserar grundorsaken

Samsungs incidenter orsakades inte av anställdas vårdslöshet. De orsakades av en arkitektur som inte tillhandahöll något avbrottslager mellan anställdas AI-användning och extern AI-infrastruktur.

Model Context Protocol (MCP) arkitektur tillhandahåller en transparent proxy mellan AI-klienter och AI-modell-API:er. För utvecklare som använder Claude Desktop eller Cursor IDE — de primära verktygen för den typ av kodfelsökning som orsakade Samsungs första incident — sitter MCP-servern i protokollvägen.

Innan någon text når AI-modellen bearbetas den genom en anonymiseringsmotor. Källkoden analyseras för proprietära identifierare: funktionsnamn, variabelnamn, interna API-slutpunkter, databas schema detaljer, konfigurationsvärden. Dessa ersätts med strukturerade tokens innan koden når AI-modellen.

En utvecklare som ber Claude att felsöka proprietär Samsung-halvledarkod genom en MCP-server utrustad med anonymisering skulle överföra kod där proprietära identifierare hade ersatts med tokens. AI-modellen hjälper till med felsökningsuppgiften med den anonymiserade koden — vilket är tillräckligt för kodanalys. De proprietära specifikationerna når aldrig AI-leverantörens servrar.

Incident 1 blir tekniskt omöjlig. Källkoden lämnar nätverket i anonymiserad form. AI ger den felsökningshjälp som ingenjören behövde. Samsungs immateriella rättigheter förblir under Samsungs kontroll.

Samma arkitektur gäller för Incident 2 (sammanfattning av mötesanteckningar genom webbläsarbaserad AI, adresserad av Chrome-tillägget) och Incident 3 (optimering av databasfrågor genom vilken AI-kodningsgränssnitt som helst, adresserad av MCP-anonymisering).

Samsungs incidenter var en förhandsvisning av ett systematiskt problem. De tekniska kontroller som adresserar grundorsaken finns nu. Frågan är om företag kommer att implementera dem eller fortsätta förlita sig på förbud som 71,6% av deras anställda redan kringgår.

Källor:

Redo att skydda din data?

Börja anonymisera PII med 285+ entitetstyper på 48 språk.