Tilbake til BloggAI Sikkerhet

JPMorgan, Goldman Sachs, Apple: Hvorfor forbud mot...

27,4 % av innholdet i enterprise AI-chatboter inneholder sensitiv informasjon—en økning på 156 % fra året før.

March 9, 20269 min lesing
enterprise AI securityChatGPT banAI data controlsshadow AI

Bølgen av forbud mot Enterprise AI

I løpet av de siste to årene har en betydelig del av verdens største bedrifter forbudt offentlige AI-verktøy:

JPMorgan Chase, Deutsche Bank, Wells Fargo, Goldman Sachs, Bank of America, Apple og Verizon er blant organisasjonene som har innført restriksjoner på ansattes bruk av ChatGPT og lignende verktøy.

Utløseren var Samsung. I 2023 opphevet Samsung et internt ChatGPT-forbud — og innen en måned skjedde tre separate lekkasjer av kildekode. Ansatte limte inn kode fra halvlederdatabaser, kode for feildeteksjonsprogrammer og interne møtenotater i ChatGPT for å få hjelp. Når dataene ble sendt inn, ble de lagret på OpenAIs servere. Samsung hadde ingen mekanisme for å hente eller slette dem. Forbudet ble gjeninnført.

Samsung-saken ble referansehendelsen for sikkerhetsteam overalt: hvis et sofistikert teknologiselskap med dedikerte sikkerhetsteam ikke kan forhindre at ansatte lekker IP til AI-verktøy, er det eneste alternativet å blokkere verktøyene helt.

Slik gikk resonneringen.

Hvorfor forbudene feilet

27,4 % av alt innhold som mates inn i enterprise AI-chatboter inneholder sensitiv informasjon — en 156 % økning fra året før (Zscaler 2025 Data@Risk Report).

Dette tallet gjenspeiler hva som skjedde etter forbudene: ansatte fortsatte å bruke AI-verktøy. De skiftet bare til ikke-korporative kontoer.

71,6 % av tilgangen til enterprise AI skjer nå via ikke-korporative kontoer som omgår korporative DLP-kontroller (LayerX 2025 Enterprise GenAI Security Report).

Forbudet stoppet ikke bruken av AI. Det presset bruken av AI under jorden, hvor den er mindre synlig, mindre kontrollert, og mindre revidert. En utvikler som brukte ChatGPT gjennom den korporative kontoen — genererte logger, utløste DLP-varsler, i det minste synlig for sikkerhetsoperasjoner — skiftet til å bruke det gjennom sin personlige konto på sin korporative enhet. Nøyaktig de samme dataene. Ingen synlighet i det hele tatt.

Dette er den fundamentale feilmåten for verktøyforbud i en tid hvor den samme tjenesten er tilgjengelig gjennom personlige kontoer: å forby den korporative kontoen forbyr ikke atferden.

Zscaler Data@Risk Rapport: Hva er faktisk i disse forespørslene

Den Zscaler 2025 Data@Risk Rapporten gir det mest detaljerte bildet av hva ansatte faktisk sender til enterprise AI-chatboter. 27,4 % sensitiv data fordeler seg over kategorier:

  • Proprietær forretningsinformasjon og forretningshemmeligheter
  • Kundedata (navn, kontaktinformasjon, kontodetaljer)
  • Ansattes personlige informasjon
  • Kildekode (inkludert med innebygde legitimasjoner)
  • Finansielle data (ikke offentliggjorte inntekter, avtalevilkår, kontraktsverdier)
  • Juridisk kommunikasjon og privilegert informasjon

Den 156 % økningen fra året før i sensitiv data i AI-forespørslene (Zscaler 2025) gjenspeiler ikke primært at ansatte blir mindre forsiktige. Det gjenspeiler veksten i bruken av AI-verktøy i seg selv. Når flere ansatte bruker AI-verktøy for flere oppgaver, vokser det absolutte volumet av sensitiv data som går inn i disse verktøyene proporsjonalt.

Produktivitetskostnaden ved AI-restriksjoner

Sikkerhetsargumentet for å forby AI er enkelt. Produktivitetsargumentet mot det er like klart.

Forskning viser konsekvent at AI-assistanse gir betydelige produktivitetsgevinster for kunnskapsarbeidere:

  • Utviklere som bruker AI-kodeassistenter fullfører oppgaver raskere
  • Juridiske fagfolk som bruker AI til dokumentgjennomgang prosesserer flere dokumenter per time
  • Kundestøtteteam som bruker AI til å utarbeide svar håndterer flere billetter

Når bedrifter forbyr AI-tilgang for utviklere som har konkurrenter som bruker det fritt, er den konkurransedyktige ulempen håndgripelig. Når analytikere må jobbe uten AI-assistanse som deres kolleger i konkurrerende firmaer bruker rutinemessig, forsterkes produksjonsgapet over tid.

Den 71,6 % personlige konto omgåelsesraten reflekterer ikke bare individuell regelbrudd, men rasjonell økonomisk atferd: produktivitetsgevinsten fra AI er stor nok til at ansatte aksepterer risikoen for brudd på policy i stedet for å gi opp verktøyet.

Den tekniske alternativet til forbud

Sikkerhetsbekymringen som ligger til grunn for AI-forbud er legitim: sensitiv data som strømmer til eksterne AI-leverandører skaper reell risiko. Løsningen er å eliminere den risikoen teknisk — ikke å akseptere produktivitetstap i bytte for et forbud som ansatte uansett vil omgå.

Den tekniske tilnærmingen: anonymisere sensitiv data før den når AI-modellen.

Tenk på utvikleren som limer inn en databaseforespørsel som inneholder kundeidentifikatorer i Claude for å få hjelp med optimalisering. Med tekniske kontroller på plass:

  1. Utvikleren limer inn forespørselen (som inneholder kunde-IDer, kontonumre, personlig identifiserbar informasjon)
  2. Anonymiseringslaget fanger opp før overføring
  3. Kunde-IDer blir "[ID_1]", kontonumre blir "[ACCT_1]", navn blir "[CUSTOMER_1]"
  4. Den anonymiserte forespørselen når Claude
  5. Claudes svar (ved bruk av de samme tokenene) returneres
  6. Utvikleren ser svaret med tokenene — som er tilstrekkelig for å forstå optimaliseringsforslaget

Claude behandlet ingen reelle kundedata. Den sensitive informasjonen forlot aldri det korporative nettverket. Utvikleren fikk den tekniske hjelpen de trengte. Sikkerhetsteamet har ingenting å undersøke.

MCP Serverarkitektur for utviklere

For utviklere som bruker Claude Desktop eller Cursor IDE — de primære AI-kodeverktøyene — gir Model Context Protocol (MCP) en transparent proxy-arkitektur.

Den anonym.legal MCP-serveren sitter mellom utviklerens AI-klient og AI-modellens API. All tekst som overføres gjennom MCP-protokollen — inkludert filinnhold, kodesnutter, feilmeldinger, konfigurasjonsfiler, og naturlige språkinnstruksjoner — går gjennom anonymiseringsmotoren før den når AI-modellen.

Fra utviklerens perspektiv bruker de Claude eller Cursor normalt. Anonymiseringen er usynlig.

Fra sikkerhetsteamets perspektiv forlater ingen proprietær kode, legitimasjoner eller kundedata nettverket i identifiserbar form. AI-modellen behandler anonymiserte versjoner; svarene blir automatisk de-anonymisert for utvikleren.

Denne arkitekturen adresserer Samsung-problemet direkte: de ansatte som limte inn kildekode i ChatGPT ville ha sendt inn anonymisert kode, hvor proprietære algoritmedetaljer hadde blitt erstattet med token før overføring.

Chrome-utvidelsesarkitektur for nettleserbasert AI

MCP-serveren adresserer AI-bruk integrert i IDE. Nettleserbasert AI-bruk — Claude.ai, ChatGPT, Gemini — krever et annet teknisk lag.

Chrome-utvidelsen fanger opp tekst før den sendes til AI-tjenesten gjennom nettlesergrensesnittet. Den samme anonymiseringsmotoren gjelder: navn, selskapsidentifikatorer, kildekodehemmeligheter, finansielle tall, og annet sensitivt innhold blir erstattet med token før forespørselen når AI-leverandørens servere.

Kombinasjonen av MCP-server (IDE) + Chrome-utvidelse (nettleser) dekker hele spekteret av AI-kontaktpunkter i et bedriftsmiljø.

Bygge forretningscaset

For CISOs som foreslår denne tilnærmingen til sine lederteam, har forretningscaset tre komponenter:

1. Sikkerhet tilsvarende et forbud — Når det gjelder hva som faktisk når eksterne AI-leverandører, inneholder anonymiserte forespørsel ingen gjenopprettbare sensitive opplysninger. Et brudd på AI-leverandørens systemer ville ikke gi noe av verdi angående organisasjonens kunder, IP eller drift.

2. Null produktivitetsoffer — Utviklere, analytikere og kunnskapsarbeidere fortsetter å bruke AI-verktøy normalt. Anonymiseringen er transparent. Kvaliteten på utdataene forblir uendret fordi AI-modeller fungerer like effektivt på pseudonymisert innhold.

3. Fjerner omgåelsesproblemet — Den 71,6 % personlige konto omgåelsesraten reflekterer ansatte som velger produktivitet over policyoverholdelse. Når ansatte kan bruke AI-verktøy gjennom korporative kontoer uten risiko, forsvinner motivasjonen for å omgå. Sikkerhetsteam får tilbake synligheten i AI-bruken.

Etter-forbud spillbok

For bedrifter som for tiden har AI-forbud på plass og vurderer på nytt, overgangsplanen:

Fase 1 (Uker 1-2): Distribuer Chrome-utvidelsen via Chrome Enterprise-policy til alle korporative enheter. Dette gir umiddelbart nettlesernivå PII-interception for ansatte som allerede omgår restriksjoner via personlige kontoer.

Fase 2 (Uker 3-4): Distribuer MCP-server til utviklerarbeidsstasjoner. Konfigurer tilpassede enhetsmønstre for organisasjonsspesifikke sensitive identifikatorer (interne produktkoder, kundekontoformater, proprietære tekniske termer).

Fase 3 (Måned 2): Opphev AI-bruksforbudet for korporative kontoer. Ansatte kan nå bruke AI-verktøy gjennom korporative kontoer med tekniske kontroller på plass.

Fase 4 (Løpende): Overvåk anonymiseringsaktivitet (hvilke kategorier av data som anonymiseres oftest) for å identifisere sikkerhetstreningsprioriteringer og justere enhetsdeteksjonskonfigurasjoner.

Samsung-hendelsen som utløste bølgen av forbud mot enterprise AI reflekterte en sikkerhetsfeil, ikke en uunngåelig egenskap ved AI-verktøy. De tekniske kontrollene som ikke eksisterte på tidspunktet for Samsungs forbud eksisterer nå. Spørsmålet er om sikkerhetsteam vil implementere dem eller fortsette å stole på forbud som 71,6 % av deres ansatte allerede omgår.


anonym.legal's MCP-server og Chrome-utvidelse gir det tekniske kontrollaget som gjør at adopsjon av enterprise AI er kompatibel med datasikkerhet. Begge verktøyene fungerer transparent — ansatte bruker AI normalt; sensitiv data anonymiseres før den når eksterne AI-leverandører.

Kilder:

Klar til å beskytte dataene dine?

Begynn å anonymisere PII med 285+ enhetstyper på 48 språk.