Tillbaka till BloggenAI-säkerhet

JPMorgan, Goldman Sachs, Apple: Varför...

27,4 % av innehållet i företags-AI-chattbotar innehåller känslig data – en ökning med 156 % år över år.

March 9, 20269 min läsning
enterprise AI securityChatGPT banAI data controlsshadow AI

Våg av företags-AI-förbud

Under de senaste två åren har en betydande del av världens största företag förbjudit offentliga AI-verktyg:

JPMorgan Chase, Deutsche Bank, Wells Fargo, Goldman Sachs, Bank of America, Apple och Verizon är bland de organisationer som infört restriktioner för anställdas användning av ChatGPT och liknande verktyg.

Utlösaren var Samsung. År 2023 lyfte Samsung ett internt ChatGPT-förbud – och inom en månad inträffade tre separata incidenter med läckage av källkod. Anställda klistrade in källkod för halvledardatabaser, kod för defektdetekteringsprogram och interna mötesanteckningar i ChatGPT för att få hjälp. När datan skickades in lagrades den på OpenAI:s servrar. Samsung hade ingen mekanism för att hämta eller ta bort den. Förbudet återinfördes.

Samsung-fallet blev referensevenemanget för säkerhetsteam överallt: om ett sofistikerat teknikföretag med dedikerade säkerhetsteam inte kan förhindra att anställda läcker IP till AI-verktyg, är det enda alternativet att blockera verktygen helt.

Eller så gick resonemanget.

Varför förbuden misslyckades

27,4 % av allt innehåll som matas in i företags-AI-chattbotar innehåller känslig information – en 156 % ökning år över år (Zscaler 2025 Data@Risk Report).

Detta nummer speglar vad som hände efter förbuden: anställda fortsatte att använda AI-verktyg. De flyttade bara till icke-företagskonton.

71,6 % av åtkomsten till företags-AI sker nu via icke-företagskonton som omgår företags DLP-kontroller (LayerX 2025 Enterprise GenAI Security Report).

Förbudet stoppade inte AI-användning. Det drev AI-användning under jorden, där den är mindre synlig, mindre kontrollerad och mindre reviderbar. En utvecklare som använde ChatGPT genom företagskontot – som genererade loggar, utlöste DLP-varningar, åtminstone synligt för säkerhetsoperationer – flyttade till att använda det genom sitt personliga konto på sin företagsenhet. Exakt samma data. Ingen synlighet alls.

Detta är det grundläggande felmönstret för verktygsförbud i en era där samma tjänst är tillgänglig genom personliga konton: att förbjuda företagskontot förhindrar inte beteendet.

Zscaler Data@Risk Report: Vad finns egentligen i dessa uppmaningar

Zscaler 2025 Data@Risk Report ger den mest detaljerade bilden av vad anställda faktiskt skickar till företags-AI-chattbotar. 27,4 % känslig data bryts ner i kategorier:

  • Proprietär affärsinformation och affärshemligheter
  • Kunddata (namn, kontaktinformation, kontouppgifter)
  • Anställdas personliga information
  • Källkod (inklusive med inbäddade autentiseringsuppgifter)
  • Finansiell data (ej offentliggjorda intäkter, avtalsvillkor, kontraktsvärden)
  • Juridisk kommunikation och privilegierad information

Den 156 % årliga ökningen av känslig data i AI-uppmaningar (Zscaler 2025) speglar inte främst att anställda blir mindre försiktiga. Det speglar tillväxten av AI-verktygsanvändning i sig. När fler anställda använder AI-verktyg för fler uppgifter växer den absoluta volymen av känslig data som kommer in i dessa verktyg proportionellt.

Produktivitetskostnaden av AI-restriktioner

Säkerhetsargumentet för att förbjuda AI är enkelt. Produktivitetsargumentet emot det är lika tydligt.

Forskning visar konsekvent att AI-assistans ger betydande produktivitetsvinster för kunskapsarbetare:

  • Utvecklare som använder AI-kodassistenter slutför uppgifter snabbare
  • Juridiska yrkesverksamma som använder AI för dokumentgranskning processar fler dokument per timme
  • Kundsupportteam som använder AI för att utarbeta svar hanterar fler ärenden

När företag förbjuder AI-åtkomst för utvecklare som har konkurrenter som använder det fritt, är den konkurrensmässiga nackdelen påtaglig. När analytiker måste arbeta utan AI-assistans som deras kollegor på konkurrentföretag använder rutinmässigt, ökar produktionsgapet över tid.

Den 71,6 % personliga kontobypassfrekvensen speglar inte bara individuellt regelbrott utan rationellt ekonomiskt beteende: produktivitetsvinsten från AI är tillräckligt stor för att anställda accepterar risken för policyöverträdelser snarare än att överge verktyget.

Den tekniska alternativet till förbud

Säkerhetsbekymret bakom AI-förbud är legitimt: känslig data som flödar till externa AI-leverantörer skapar verklig risk. Lösningen är att eliminera den risken tekniskt – inte att acceptera produktivitetsförlust i utbyte mot ett förbud som anställda ändå kommer att kringgå.

Den tekniska metoden: anonymisera känslig data innan den når AI-modellen.

Tänk på utvecklaren som klistrar in en databasfråga som innehåller kundidentifierare i Claude för att få hjälp med optimering. Med tekniska kontroller på plats:

  1. Utvecklaren klistrar in frågan (som innehåller kund-ID, kontonummer, personligt identifierbar information)
  2. Anonymiseringslagret fångar upp innan överföring
  3. Kund-ID blir "[ID_1]", kontonummer blir "[ACCT_1]", namn blir "[CUSTOMER_1]"
  4. Den anonymiserade frågan når Claude
  5. Claudes svar (som använder samma token) returneras
  6. Utvecklaren ser svaret med token – vilket är tillräckligt för att förstå optimeringsförslaget

Claude bearbetade ingen verklig kunddata. Den känsliga informationen lämnade aldrig det företagsnätverket. Utvecklaren fick den tekniska hjälp de behövde. Säkerhetsteamet har inget att undersöka.

MCP-serverarkitektur för utvecklare

För utvecklare som använder Claude Desktop eller Cursor IDE – de primära AI-kodningsverktygen – tillhandahåller Model Context Protocol (MCP) en transparent proxyarkitektur.

anonym.legal MCP Server sitter mellan utvecklarens AI-klient och AI-modellens API. All text som överförs genom MCP-protokollet – inklusive filinnehåll, kodsnuttar, felmeddelanden, konfigurationsfiler och instruktioner på naturligt språk – passerar genom anonymiseringsmotorn innan den når AI-modellen.

Ur utvecklarens perspektiv använder de Claude eller Cursor normalt. Anonymiseringen är osynlig.

Ur säkerhetsteamets perspektiv lämnar ingen proprietär kod, autentiseringsuppgifter eller kunddata nätverket i identifierbar form. AI-modellen bearbetar anonymiserade versioner; svaren anonymiseras automatiskt för utvecklaren.

Denna arkitektur adresserar Samsung-problemet direkt: de anställda som klistrade in källkod i ChatGPT skulle ha skickat anonymiserad kod, från vilken proprietära algoritmdetaljer hade ersatts med token innan överföring.

Chrome-tilläggsarkitektur för webbläsarbaserad AI

MCP-servern adresserar IDE-integrerad AI-användning. Webbläsarbaserad AI-användning – Claude.ai, ChatGPT, Gemini – kräver ett annat tekniskt lager.

Chrome-tillägget fångar upp text innan den skickas till AI-tjänsten genom webbläsargränssnittet. Samma anonymiseringsmotor tillämpas: namn, företagsidentifierare, källkodshemligheter, finansiella siffror och annat känsligt innehåll ersätts med token innan uppmaningen når AI-leverantörens servrar.

Kombinationen av MCP-server (IDE) + Chrome-tillägg (webbläsare) täcker hela spektrumet av AI-beröringspunkter i en företagsmiljö.

Bygga affärsargumentet

För CISOs som föreslår detta tillvägagångssätt till sina ledningsgrupper har affärsargumentet tre komponenter:

1. Säkerhet motsvarande ett förbud – När det gäller vad som faktiskt når externa AI-leverantörer, innehåller anonymiserade uppmaningar ingen återvinningsbar känslig information. Ett intrång i AI-leverantörens system skulle ge ingenting av värde angående organisationens kunder, IP eller verksamhet.

2. Ingen produktivitetsuppoffring – Utvecklare, analytiker och kunskapsarbetare fortsätter att använda AI-verktyg normalt. Anonymiseringen är transparent. Utdata kvaliteten är oförändrad eftersom AI-modeller fungerar lika effektivt på pseudonymiserat innehåll.

3. Eliminera bypass-problemet – Den 71,6 % personliga kontobypassfrekvensen speglar anställdas val av produktivitet framför policyefterlevnad. När anställda kan använda AI-verktyg genom företagskonton utan risk försvinner bypass-motivet. Säkerhetsteam får tillbaka synligheten i AI-användningen.

Efter-förbudets handlingsplan

För företag som för närvarande har AI-förbud på plats och omprövar, handlingsplanen för övergång:

Fas 1 (Veckor 1-2): Distribuera Chrome-tillägget via Chrome Enterprise-policy till alla företagsenheter. Detta ger omedelbart webbläsarnivå PII-avlyssning för anställda som redan kringgår restriktioner via personliga konton.

Fas 2 (Veckor 3-4): Distribuera MCP-servern till utvecklarens arbetsstationer. Konfigurera anpassade entitetsmönster för organisationsspecifika känsliga identifierare (interna produktkoder, kundkontonformat, proprietära tekniska termer).

Fas 3 (Månad 2): Lyft AI-användningspolicyförbudet för företagskonton. Anställda kan nu använda AI-verktyg genom företagskonton med tekniska kontroller på plats.

Fas 4 (Pågående): Övervaka anonymiseringsaktivitet (vilka kategorier av data som anonymiseras oftast) för att identifiera säkerhetsträningsprioriteringar och justera entitetsdetekteringskonfigurationer.

Samsung-incidenten som utlöste vågen av företags-AI-förbud reflekterade ett säkerhetsfel, inte en oundviklig egenskap hos AI-verktyg. De tekniska kontroller som inte fanns vid tidpunkten för Samsungs förbud finns nu. Frågan är om säkerhetsteam kommer att implementera dem eller fortsätta att förlita sig på förbud som 71,6 % av deras anställda redan kringgår.


anonym.legals MCP-server och Chrome-tillägg tillhandahåller det tekniska kontrollagret som gör företags-AI-antagande kompatibelt med dataskydd. Båda verktygen fungerar transparent – anställda använder AI normalt; känslig data anonymiseras innan den når externa AI-leverantörer.

Källor:

Redo att skydda din data?

Börja anonymisera PII med 285+ entitetstyper på 48 språk.