Tilbage til BlogAI Sikkerhed

JPMorgan, Goldman Sachs, Apple: Hvorfor forbud mod...

27,4% af indholdet fra enterprise AI chatbotter indeholder følsomme data—en stigning på 156% år-til-år.

March 9, 20269 min læsning
enterprise AI securityChatGPT banAI data controlsshadow AI

Bølgen af forbud mod enterprise AI

I løbet af de sidste to år har en betydelig del af verdens største virksomheder forbudt offentlige AI-værktøjer:

JPMorgan Chase, Deutsche Bank, Wells Fargo, Goldman Sachs, Bank of America, Apple og Verizon er blandt de organisationer, der har indført restriktioner på medarbejderes brug af ChatGPT og lignende værktøjer.

Udløseren var Samsung. I 2023 ophævede Samsung et internt ChatGPT-forbud — og inden for en måned opstod der tre separate hændelser med læk af kildekode. Medarbejdere indsatte kode fra halvlederdatabaser, kode til fejlregistreringsprogrammer og interne mødenotater i ChatGPT for at få hjælp. Når dataene blev indsendt, blev de gemt på OpenAI's servere. Samsung havde ingen mekanisme til at hente eller slette dem. Forbuddet blev genindført.

Samsung-sagen blev referencebegivenheden for sikkerhedsteams overalt: hvis en sofistikeret teknologivirksomhed med dedikerede sikkerhedsteams ikke kan forhindre medarbejdere i at lække IP til AI-værktøjer, er den eneste mulighed at blokere værktøjerne helt.

Eller sådan gik ræsonneringen.

Hvorfor forbuddene fejlede

27,4% af alt indhold, der fodres ind i enterprise AI chatbotter, indeholder følsomme oplysninger — en 156% stigning år-til-år (Zscaler 2025 Data@Risk Report).

Dette tal afspejler, hvad der skete efter forbuddene: medarbejdere fortsatte med at bruge AI-værktøjer. De skiftede blot til ikke-korporative konti.

71,6% af adgangen til enterprise AI sker nu via ikke-korporative konti og omgår virksomhedens DLP-kontroller (LayerX 2025 Enterprise GenAI Security Report).

Forbuddet stoppede ikke brugen af AI. Det skubbede brugen af AI under jorden, hvor den er mindre synlig, mindre kontrolleret og mindre reviderbar. En udvikler, der brugte ChatGPT gennem den korporative konto — genererede logs, udløste DLP-advarsler, i det mindste synligt for sikkerhedsoperationer — skiftede til at bruge det gennem deres personlige konto på deres virksomhedsenhed. Præcis de samme data. Ingen synlighed overhovedet.

Dette er den fundamentale fejlfunktion ved værktøjsforbud i en æra, hvor den samme service er tilgængelig gennem personlige konti: at forbyde den korporative konto forbyder ikke adfærden.

Zscaler Data@Risk Rapport: Hvad er der faktisk i de prompts

Zscaler 2025 Data@Risk Report giver det mest detaljerede billede af, hvad medarbejdere faktisk sender til enterprise AI chatbotter. 27,4% følsomme data opdeles i kategorier:

  • Proprietære forretningsoplysninger og forretningshemmeligheder
  • Kundedata (navne, kontaktoplysninger, kontodetaljer)
  • Medarbejderpersonlige oplysninger
  • Kildekode (herunder med indlejrede legitimationsoplysninger)
  • Finansielle data (uoffentliggjorte indtægter, aftalevilkår, kontraktværdier)
  • Juridisk kommunikation og privilegerede oplysninger

Den 156% år-til-år stigning i følsomme data i AI-prompter (Zscaler 2025) afspejler ikke primært, at medarbejdere bliver mindre forsigtige. Det afspejler væksten i adoptionen af AI-værktøjer i sig selv. Efterhånden som flere medarbejdere bruger AI-værktøjer til flere opgaver, vokser det absolutte volumen af følsomme data, der kommer ind i disse værktøjer, proportionalt.

Omkostningerne ved produktivitet ved AI-restriktioner

Sikkerhedssagen for at forbyde AI er ligetil. Produktivitetssagen imod det er lige så klar.

Forskning viser konsekvent, at AI-assistance giver betydelige produktivitetsgevinster for videnarbejdere:

  • Udviklere, der bruger AI-kodningsassistenter, afslutter opgaver hurtigere
  • Juridiske fagfolk, der bruger AI til dokumentgennemgang, behandler flere dokumenter pr. time
  • Kundesupportteams, der bruger AI til at udkaste svar, håndterer flere billetter

Når virksomheder forbyder AI-adgang for udviklere, der har konkurrenter, der bruger det frit, er den konkurrencemæssige ulempe håndgribelig. Når analytikere skal arbejde uden AI-assistance, som deres kolleger i konkurrentfirmaer bruger rutinemæssigt, forstærkes outputkløften over tid.

Den 71,6% bypass-rate for personlige konti afspejler ikke kun individuel regelbrud, men rationel økonomisk adfærd: produktivitetsgevinsten fra AI er stor nok til, at medarbejdere accepterer risikoen for politikovertrædelse i stedet for at opgive værktøjet.

Den tekniske alternative til forbud

Sikkerhedsmæssige bekymringer, der ligger til grund for AI-forbud, er legitime: følsomme data, der flyder til eksterne AI-udbydere, skaber reel risiko. Løsningen er at eliminere den risiko teknisk — ikke at acceptere produktivitetstab i bytte for et forbud, som medarbejdere alligevel vil omgå.

Den tekniske tilgang: anonymisere følsomme data, før de når AI-modellen.

Overvej udvikleren, der indsætter en databaseforespørgsel, der indeholder kundeidentifikatorer, i Claude for at få hjælp til optimering. Med tekniske kontroller på plads:

  1. Udvikleren indsætter forespørgslen (der indeholder kunde-ID'er, kontonumre, personligt identificerbare oplysninger)
  2. Anonymiseringslaget opfanger før transmission
  3. Kunde-ID'er bliver "[ID_1]", kontonumre bliver "[ACCT_1]", navne bliver "[CUSTOMER_1]"
  4. Den anonymiserede forespørgsel når Claude
  5. Claudes svar (ved hjælp af de samme tokens) returneres
  6. Udvikleren ser svaret med tokens — hvilket er tilstrækkeligt til at forstå optimeringsforslaget

Claude behandlede ingen reelle kundedata. De følsomme oplysninger forlod aldrig det korporative netværk. Udvikleren fik den tekniske assistance, de havde brug for. Sikkerhedsteamet har intet at undersøge.

MCP-serverarkitekturen for udviklere

For udviklere, der bruger Claude Desktop eller Cursor IDE — de primære AI-kodningsværktøjer — giver Model Context Protocol (MCP) en gennemsigtig proxy-arkitektur.

anonym.legal MCP Server sidder mellem udviklerens AI-klient og AI-model API'en. Al tekst, der transmitteres gennem MCP-protokollen — herunder filindhold, kodesnippets, fejlmeddelelser, konfigurationsfiler og naturlige sprog instruktioner — passerer gennem anonymiseringsmotoren, før den når AI-modellen.

Fra udviklerens perspektiv bruger de Claude eller Cursor normalt. Anonymiseringen er usynlig.

Fra sikkerhedsteamets perspektiv forlader ingen proprietær kode, legitimationsoplysninger eller kundedata netværket i identificerbar form. AI-modellen behandler anonymiserede versioner; svarene anonymiseres automatisk for udvikleren.

Denne arkitektur adresserer direkte Samsung-problemet: de medarbejdere, der indsatte kildekode i ChatGPT, ville have indsendt anonymiseret kode, hvor proprietære algoritmedetaljer var blevet erstattet med tokens før transmission.

Chrome-udvidelsesarkitekturen til browserbaseret AI

MCP-serveren adresserer IDE-integreret AI-brug. Browserbaseret AI-brug — Claude.ai, ChatGPT, Gemini — kræver et andet teknisk lag.

Chrome-udvidelsen opfanger tekst, før den sendes til AI-tjenesten gennem browsergrænsefladen. Den samme anonymiseringsmotor gælder: navne, virksomhedsidentifikatorer, kildekodehemmeligheder, finansielle tal og andet følsomt indhold erstattes med tokens, før prompten når AI-udbyderens servere.

Kombinationen af MCP Server (IDE) + Chrome Extension (browser) dækker hele spektret af AI-berøringspunkter i et virksomhedsmiljø.

Bygning af forretningscasen

For CISOs, der foreslår denne tilgang til deres ledelsesteams, har forretningscasen tre komponenter:

1. Sikkerhed svarende til et forbud — I forhold til hvad der faktisk når eksterne AI-udbydere, indeholder anonymiserede prompts ingen genvindelige følsomme oplysninger. Et brud på AI-udbyderens systemer ville ikke give noget af værdi vedrørende organisationens kunder, IP eller operationer.

2. Ingen produktivitetstab — Udviklere, analytikere og videnarbejdere fortsætter med at bruge AI-værktøjer normalt. Anonymiseringen er gennemsigtig. Outputkvaliteten er uændret, fordi AI-modeller fungerer lige så effektivt på pseudonymiseret indhold.

3. Eliminering af bypass-problemet — Den 71,6% bypass-rate for personlige konti afspejler medarbejdere, der vælger produktivitet frem for politikoverholdelse. Når medarbejdere kan bruge AI-værktøjer gennem korporative konti uden risiko, forsvinder bypass-motivationen. Sikkerhedsteams genvinder synlighed i AI-brugen.

Efter-forbud-handlingsplanen

For virksomheder, der i øjeblikket har AI-forbud på plads og genovervejer, handlingsplanen for overgangen:

Fase 1 (Uger 1-2): Udrul Chrome-udvidelsen via Chrome Enterprise-politik til alle virksomhedsenheder. Dette giver straks browser-niveau PII-interception for medarbejdere, der allerede omgår restriktioner via personlige konti.

Fase 2 (Uger 3-4): Udrul MCP Server til udviklerarbejdsstationer. Konfigurer brugerdefinerede enhedsmønstre for organisationsspecifikke følsomme identifikatorer (interne produktkoder, kundekontoformater, proprietære tekniske termer).

Fase 3 (Måned 2): Ophæv AI-brugspolitikforbuddet for korporative konti. Medarbejdere kan nu bruge AI-værktøjer gennem korporative konti med tekniske kontroller på plads.

Fase 4 (Løbende): Overvåg anonymiseringsaktivitet (hvilke kategorier af data der anonymiseres hyppigst) for at identificere sikkerhedstræningsprioriteter og justere konfigurationer for enhedsdetektion.

Samsung-hændelsen, der udløste bølgen af forbud mod enterprise AI, afspejlede en sikkerhedsfejl, ikke en uundgåelig egenskab ved AI-værktøjer. De tekniske kontroller, der ikke eksisterede på tidspunktet for Samsungs forbud, eksisterer nu. Spørgsmålet er, om sikkerhedsteams vil implementere dem eller fortsætte med at stole på forbud, som 71,6% af deres medarbejdere allerede omgår.


anonym.legal's MCP Server og Chrome Extension giver det tekniske kontrollag, der gør adoption af enterprise AI kompatibel med datasikkerhed. Begge værktøjer fungerer gennemsigtigt — medarbejdere bruger AI normalt; følsomme data anonymiseres, før de når eksterne AI-udbydere.

Kilder:

Klar til at beskytte dine data?

Begynd at anonymisere PII med 285+ enhedstyper på tværs af 48 sprog.