Tillbaka till BloggenAI-säkerhet

Varför policyutbildning misslyckas med att stoppa...

77% av företags AI-användare kopierar och klistrar in data i chatbotfrågor. Nästan 40% av uppladdade filer innehåller PII eller PCI-data.

April 15, 20268 min läsning
ChatGPT PII leak preventionChrome extension DLPenterprise AI policytechnical controls browsercopy-paste PII protection

Problemet med kopiera-klistra-beteende

77% av företags AI-användare kopierar och klistrar in data i chatbotfrågor. Detta beteendemönster är inte begränsat till en icke-kompatibel minoritet — det är den dominerande interaktionsmetoden för användning av företags AI-verktyg. När anställda stöter på ett komplext dokument, ett kundärende eller en analytisk uppgift, är det naturliga arbetsflödet: kopiera det relevanta innehållet, klistra in det i AI-verktyget, få ett svar.

Detta arbetsflöde gör ingen åtskillnad mellan innehåll som innehåller personuppgifter och innehåll som inte gör det. Kopiera-klistra-handlingen föregår klassificeringsbeslutet. Vid den tidpunkt då den anställde har klistrat in innehållet och läser AI:s svar, har överföringen redan ägt rum. Policyutbildning tillämpas i ögonblicket av klassificering — "borde jag klistra in detta?" — men den splitsekundära naturen av beslutet innebär att policyåterkallande försämras under kognitiv belastning, tidstryck och vanebeteende.

Cyberhaven-forskning har funnit att nästan 40% av uppladdade filer till AI-verktyg innehåller PII eller PCI-data. Siffran inkluderar anställda som är fullt medvetna om AI-användningspolicyer: de laddar upp den fil de behöver arbeta med, som råkar innehålla kunddata. Policyöverträdelser är tillfälliga i samband med en legitim uppgift.

Varför utbildning misslyckas i stor skala

Policyutbildningsprogram står inför samma strukturella begränsning i alla dataskyddssammanhang: de försöker modifiera djupt rotade beteendemönster genom periodiska utbildningsinsatser. Intervallen mellan utbildningstillfällen (vanligtvis årliga) överstiger tidskonstanten för beteendeförfall. Anställda som fått grundlig utbildning i AI-databehandling under Q1 arbetar främst på rutin i Q4.

Uppdateringen av HIPAA-säkerhetsregeln som föreslogs i mars 2025 — som kräver årliga krypteringsrevisioner — återspeglar den regulatoriska insikten att policyefterlevnad kräver periodisk verifiering av tekniska kontroller, inte bara utbildningsprogram. Kravet på revision innebär att reglerande myndigheter förväntar sig att tekniska kontroller ska vara den primära mekanismen och utbildning den kompletterande mekanismen.

För AI-dataläckage specifikt är beteendet svårare att förhindra genom utbildning än standardbeteenden för databehandling eftersom det sker i en ny kontext (AI-verktyg existerade inte när de flesta företags databehandlingsvanor formades) och eftersom läckaget inte ger några omedelbara negativa konsekvenser som är synliga för den anställde.

Arkitekturen för Chrome-tillägget för avlyssning

Chrome-tillägget fungerar på urklippsnivå — innan det inklistrade innehållet når AI-verktygets inmatningsfält. Avlyssningen är arkitektoniskt föregående användarens beslut att skicka: den anställde kopierar innehåll från sin arbetsapplikation, växlar till ChatGPT-fliken och klistrar in. Tillägget upptäcker PII i urklippsinnehållet i ögonblicket av inklistring, innan innehållet visas i inmatningsfältet.

En förhandsgranskningsmodal visar den anställde exakt vad som kommer att anonymiseras: "Kundnamn 'Maria Schmidt' → '[PERSON_1]'; E-post 'maria.schmidt@company.de' → '[EMAIL_1]'." Den anställde kan fortsätta med den anonymiserade versionen eller avbryta inklistringen om den specifika ersättningen är oacceptabel.

Förhandsgranskningsmodalen har två syften. För det första ger den transparens — anställda förstår vad verktyget gör, vilket bygger upp lämpligt förtroende och minskar uppfattningen att integritetskontroller är övervakning. För det andra gör den anonymiseringsbeslutet tydligt snarare än tyst: den anställde bekräftar varje anonymiseringsoperation, vilket skapar ett psykologiskt ögonblick där klassificeringsbeslutet (är detta PII?) fattas av en människa snarare än automatiskt.

För ett europeiskt e-handelsföretags kundsupportteam: agenter utarbetar svar med hjälp av ChatGPT, där de klistrar in kundkorrespondens som innehåller namn, ordernummer och adresser. Chrome-tillägget avlyssnar varje inklistring, anonymiserar personuppgifterna, och agenten skickar den anonymiserade prompten. ChatGPT:s svar refererar till de anonymiserade token; agenten kan läsa AI:s förslag och inkorporera dem i det faktiska kundsvaret. GDPR Artikel 5 dataminimering är uppfyllt; kvalitetsförbättringen av stödet från AI-assistans bibehålls.

Källor:

Redo att skydda din data?

Börja anonymisera PII med 285+ entitetstyper på 48 språk.