Tilbake til BloggAI Sikkerhet

Fra FEMA til finans: Hvorfor AI-politikk uten...

77% av ansatte deler sensitiv arbeidsdata med AI-verktøy til tross for policyer som forbyr det.

April 4, 20268 min lesing
AI data governancetechnical controlsChatGPT policy failureChrome Extension DLPenterprise AI security

Når politikk møter menneskelig atferd

En statlig kontraktør under tidspress for å behandle FEMA-flomhjelpssøknader limte inn navn, adresser, kontaktopplysninger og helsedata fra katastrofesøkere i ChatGPT for å behandle informasjonen raskere. Intensjonen var ikke ondsinnet — det var en produktivitetsbeslutning gjort under press. Resultatet var en statlig etterforskning, offentlig avsløring og en dokumentert hendelse som illustrerer kjernemodusen for svikt i politikkbasert AI-styring.

77% av ansatte i bedrifter deler sensitiv arbeidsinformasjon med AI-verktøy minst ukentlig til tross for policyer som forbyr det (eSecurity Planet/Cyberhaven 2025). Tallet på 77% reflekterer ikke en arbeidsstyrke av policy-kriminelle, men virkeligheten av hvordan AI-verktøy har blitt adoptert: som produktivitetsverktøy som arbeidere griper til reflexivt når de står overfor tidspress, repetitive oppgaver eller komplekse analysekrav.

Cyberhavens Q4 2025-analyse fant at 34,8% av alle ChatGPT-inndata inneholder konfidensiell forretningsdata. Dette tallet inkluderer ansatte som er klar over AI-brukspolicyer og ikke har til hensikt å bryte dem — de kategoriserte ganske enkelt ikke dataene de limte inn som "konfidensielle" i øyeblikket de limte dem inn.

Problemet med policyoverholdelse

AI-brukspolicyer står overfor et iboende håndhevelsesgap. I motsetning til tilgangskontrollpolicyer (som kan håndheves teknisk gjennom autentisering) eller dataklassifiseringspolicyer (som kan håndheves gjennom DLP på e-post/lagerlag), avhenger AI-brukspolicyer av menneskelig vurdering i øyeblikket for datainntasting.

Øyeblikket når en ansatt bestemmer seg for å lime inn kundedata i ChatGPT er en split-sekunds atferdsbeslutning. Den ansatte kan ikke huske policyen, kan ha beregnet at effektivitetgevinsten oppveier den opplevde risikoen, eller kan genuint ikke gjenkjenne dataene som dekket av policyen. Policyopplæring reduserer hyppigheten av denne beslutningen, men kan ikke eliminere den i stor skala.

FEMA-hendelsen demonstrerer arketypen: en kontraktør som står overfor et stort volum av søknader, en frist, og tilgang til et kraftig oppsummeringsverktøy. Policyoverholdelse krevde å velge manuell behandling fremfor AI-hjelp. Under tidspress vant verktøyet.

Tekniske kontroller på applikasjonslaget

Den eneste styringsmetoden som adresserer denne sviktsmodusen opererer på det tekniske laget snarere enn policy-laget. Chrome-utvidelsen fanger opp innholdet i utklippstavlen før det når noen nettbaserte AI-grensesnitt — ChatGPT, Gemini, Claude.ai, Perplexity, eller andre. Interceptasjonen er automatisk; den avhenger ikke av at brukeren husker å anvende en policy.

Når FEMA-kontraktøren kopierer søkerens navn og adresser fra saksbehandlingssystemet og limer inn i ChatGPT, oppdager utvidelsen PII i innholdet i utklippstavlen, anonymiserer det, og sender inn den anonymiserte versjonen. Kontraktøren ser en forhåndsvisningsmodal som viser hva som vil bli substituert før innsending. AI-en mottar de-identifisert data og kan fortsatt utføre oppsummeringsoppgaven. Søkerens navn, adresse og helsedata når aldri ChatGPTs servere.

For organisasjoner hvis AI-styringsbekymringer sentrerer seg rundt kodeverktøy (Cursor, GitHub Copilot), gir MCP-serveren tilsvarende kontroll på applikasjonslaget. Kode limt inn i AI-modellens kontekst blir fanget opp, legitimasjon og proprietære identifikatorer blir erstattet med tokens, og AI-en mottar den anonymiserte versjonen. Begge kanalene — nettleserbasert AI og IDE-basert AI — kan beskyttes gjennom tekniske kontroller som opererer uavhengig av brukerens atferd.

FEMA-kontraktørscenariet ville hatt et annet utfall med tekniske kontroller på plass. Kontraktøren kunne ha behandlet søknader effektivt; søkerdataene ville aldri ha nådd ChatGPT; etterforskningen ville ikke ha blitt utløst. Policyopplæring forhindret ikke hendelsen. Et teknisk interceptjonslag ville ha gjort det.

Kilder:

Klar til å beskytte dataene dine?

Begynn å anonymisere PII med 285+ enhetstyper på 48 språk.