Tillbaka till BloggenAI-säkerhet

Från FEMA till Finans: Varför AI-policy utan tekniska...

77% av anställda delar känslig arbetsdata med AI-verktyg trots policyer som förbjuder det.

April 4, 20268 min läsning
AI data governancetechnical controlsChatGPT policy failureChrome Extension DLPenterprise AI security

När policy möter mänskligt beteende

En statlig entreprenör under tidspress för att bearbeta FEMA-flodhjälpsansökningar klistrade in namn, adresser, kontaktuppgifter och hälsodata från katastrofansökande i ChatGPT för att bearbeta informationen snabbare. Avsikten var inte illvillig — det var ett produktivitetsbeslut fattat under press. Resultatet blev en statlig utredning, offentlig avslöjande och en dokumenterad incident som illustrerar den kärnmisslyckande modellen för policy-enbart AI-styrning.

77% av företagsanställda delar känslig arbetsinformation med AI-verktyg minst en gång i veckan trots policyer som förbjuder det (eSecurity Planet/Cyberhaven 2025). Siffran 77% återspeglar inte en arbetsstyrka av policyöverträdare utan verkligheten av hur AI-verktyg har antagits: som produktivitetsverktyg som arbetare reflexmässigt når för när de står inför tidspress, repetitiva uppgifter eller komplexa analyskrav.

Cyberhavens analys för Q4 2025 visade att 34,8% av alla ChatGPT-inmatningar innehåller konfidentiell affärsdata. Denna siffra inkluderar anställda som är medvetna om AI-användningspolicyer och inte har någon avsikt att bryta mot dem — de kategoriserade helt enkelt inte den data de klistrade in som "konfidentiell" i ögonblicket av klistring.

Problemet med policyefterlevnad

AI-användningspolicyer står inför en inneboende verkställighetslucka. Till skillnad från åtkomstkontrollpolicyer (som kan verkställas tekniskt genom autentisering) eller dataklassificeringspolicyer (som kan verkställas genom DLP på e-post/lager-nivå), beror AI-användningspolicyer på mänskligt omdöme i ögonblicket av datainmatning.

Ögonblicket när en anställd beslutar att klistra in kunddata i ChatGPT är ett splitsekundsbeteendedecision. Den anställde kanske inte minns policyn, kanske har beräknat att effektivitetvinsten överväger den upplevda risken, eller kanske verkligen inte känner igen datan som omfattad av policyn. Policyutbildning minskar frekvensen av detta beslut men kan inte eliminera det i stor skala.

FEMA-incidenten demonstrerar arketypen: en entreprenör som står inför en stor mängd ansökningar, en deadline och tillgång till ett kraftfullt sammanfattningsverktyg. Policyefterlevnad krävde att välja manuell bearbetning över AI-assistans. Under tidspress vann verktyget.

Tekniska kontroller på applikationsnivå

Den enda styrningsmetoden som adresserar denna misslyckande modell verkar på den tekniska nivån snarare än policy-nivån. Chrome-tillägget fångar upp innehållet i urklipp innan det når någon webbaserad AI-gränssnitt — ChatGPT, Gemini, Claude.ai, Perplexity eller andra. Fångsten är automatisk; den beror inte på att användaren kommer ihåg att tillämpa en policy.

När FEMA-entreprenören kopierar sökandes namn och adresser från ärendehanteringssystemet och klistrar in i ChatGPT, upptäcker tillägget PII i urklippinnehållet, anonymiserar det och skickar in den anonymiserade versionen. Entreprenören ser en förhandsgranskningsmodal som visar vad som kommer att ersättas innan inlämning. AI får deidentifierad data och kan fortfarande utföra sammanfattningsuppgiften. Sökandes namn, adress och hälsodata når aldrig ChatGPT:s servrar.

För organisationer vars AI-styrningsfrågor kretsar kring kodningsverktyg (Cursor, GitHub Copilot) tillhandahåller MCP-servern motsvarande kontroll på applikationsnivå. Kod som klistras in i AI-modellens kontext fångas upp, autentiseringsuppgifter och proprietära identifierare ersätts med tokens, och AI får den anonymiserade versionen. Båda kanaler — webbläsarbaserad AI och IDE-baserad AI — kan skyddas genom tekniska kontroller som verkar oberoende av användarbeteende.

FEMA-entreprenörens scenario skulle ha haft ett annat utfall med tekniska kontroller på plats. Entreprenören skulle ha kunnat bearbeta ansökningar effektivt; sökandens data skulle aldrig ha nått ChatGPT; utredningen skulle inte ha blivit utlösts. Policyutbildning förhindrade inte incidenten. Ett tekniskt fångstlager skulle ha gjort det.

Källor:

Redo att skydda din data?

Börja anonymisera PII med 285+ entitetstyper på 48 språk.