Tilbage til BlogAI Sikkerhed

Hvorfor politiktræning fejler i at stoppe ChatGPT...

77% af virksomhedens AI-brugere kopierer og indsætter data i chatbot-forespørgsler. Næsten 40% af de uploadede filer indeholder PII eller PCI-data.

April 15, 20268 min læsning
ChatGPT PII leak preventionChrome extension DLPenterprise AI policytechnical controls browsercopy-paste PII protection

Problemet med kopier-og-indsæt adfærd

77% af virksomhedens AI-brugere kopierer og indsætter data i chatbot-forespørgsler. Denne adfærdsmønster er ikke begrænset til en ikke-kompatibel minoritet — det er den dominerende interaktionsmetode for brugen af virksomhedens AI-værktøjer. Når medarbejdere støder på et komplekst dokument, et kundeproblem eller en analytisk opgave, er den naturlige arbejdsgang: kopier det relevante indhold, indsæt det i AI-værktøjet, få et svar.

Denne arbejdsgang skelner ikke mellem indhold, der indeholder personlige data, og indhold, der ikke gør. Kopier-og-indsæt-handlingen går forud for klassifikationsbeslutningen. I det øjeblik medarbejderen har indsat indholdet og læser AI's svar, er transmissionen allerede sket. Politiktræning anvendes i øjeblikket for klassifikation — "skal jeg indsætte dette?" — men den split-sekunds karakter af beslutningen betyder, at politikgenkaldelse forringes under kognitiv belastning, tidspres og vanemæssig adfærd.

Cyberhaven-forskning har fundet, at næsten 40% af de uploadede filer til AI-værktøjer indeholder PII eller PCI-data. Tallet inkluderer medarbejdere, der er fuldt ud klar over politikkerne for AI-brug: de uploader den fil, de skal arbejde med, som tilfældigvis indeholder kundedata. Overtrædelsen af politikken er tilfældig i forbindelse med en legitim opgave.

Hvorfor træning fejler i stor skala

Politiktræningsprogrammer står over for den samme strukturelle begrænsning på tværs af alle databeskyttelseskontekster: de forsøger at ændre dybt forankrede adfærdsmønstre gennem periodiske uddannelsesinterventioner. Intervallerne mellem træningssessioner (typisk årlige) overstiger tidskonstanten for adfærdsmæssig forfald. Medarbejdere, der har modtaget grundig træning i AI-databehandling i Q1, opererer primært på vane i Q4.

Opdateringen af HIPAA-sikkerhedsreglen, der blev foreslået i marts 2025 — som kræver årlige krypteringsrevisioner — afspejler den regulatoriske anerkendelse af, at overholdelse af politikker kræver periodisk verifikation af tekniske kontroller, ikke kun træningsprogrammer. Kravet om revision indebærer, at regulatorer forventer, at tekniske kontroller er den primære mekanisme, og træning er den supplerende mekanisme.

For AI-datalækager specifikt er adfærden sværere at forhindre gennem træning end standard databehandlingsadfærd, fordi det sker i en ny kontekst (AI-værktøjer eksisterede ikke, da de fleste virksomheders databehandlingsvaner blev dannet) og fordi lækagen ikke medfører nogen umiddelbar negativ konsekvens, der er synlig for medarbejderen.

Arkitekturen for Chrome-udvidelsens interception

Chrome-udvidelsen opererer på udklipsholderlaget — før det indsatte indhold når AI-værktøjets inputfelt. Interception er arkitektonisk forud for brugerens beslutning om at indsende: medarbejderen kopierer indhold fra deres arbejdsapplikation, skifter til ChatGPT-fanen og indsætter. Udvidelsen registrerer PII i udklipsholderindholdet i det øjeblik, det indsættes, før indholdet vises i inputfeltet.

En forhåndsvisningsmodal viser medarbejderen præcist, hvad der vil blive anonymiseret: "Kundenavn 'Maria Schmidt' → '[PERSON_1]'; Email 'maria.schmidt@company.de' → '[EMAIL_1]'." Medarbejderen kan fortsætte med den anonymiserede version eller annullere indsættelsen, hvis den specifikke erstatning er uacceptabel.

Forhåndsvisningsmodalen tjener to formål. For det første giver den gennemsigtighed — medarbejderne forstår, hvad værktøjet gør, hvilket opbygger passende tillid og reducerer opfattelsen af, at privatlivskontroller er overvågning. For det andet gør den anonymiseringsbeslutningen eksplicit snarere end stille: medarbejderen bekræfter hver anonymiseringsoperation, hvilket skaber et psykologisk øjeblik, hvor klassifikationsbeslutningen (er dette PII?) træffes af et menneske i stedet for at blive automatiseret væk.

For et europæisk e-handelsfirma's kundesupportteam: agenter udarbejder svar ved hjælp af ChatGPT, indsætter kundekorrespondance, der indeholder navne, ordrenumre og adresser. Chrome-udvidelsen registrerer hver indsættelse, anonymiserer de personlige data, og agenten indsender den anonymiserede prompt. ChatGPT's svar refererer til de anonymiserede tokens; agenten kan læse AI's forslag og inkorporere dem i det faktiske kundesvar. GDPR Artikel 5 dataminimering er opfyldt; forbedringen af supportkvaliteten fra AI-assistance opretholdes.

Kilder:

Klar til at beskytte dine data?

Begynd at anonymisere PII med 285+ enhedstyper på tværs af 48 sprog.