anonym.legal
Terug naar BlogAI Beveiliging

JPMorgan, Goldman Sachs, Apple: Waarom...

27,4% van de inhoud van bedrijfs-AI-chatbots bevat gevoelige gegevens—een stijging van 156% ten opzichte van het voorgaande jaar.

March 9, 20269 min lezen
enterprise AI securityChatGPT banAI data controlsshadow AI

De golf van bedrijfs-AI-bans

In de afgelopen twee jaar hebben een aanzienlijk aantal van 's werelds grootste ondernemingen openbare AI-tools verboden:

JPMorgan Chase, Deutsche Bank, Wells Fargo, Goldman Sachs, Bank of America, Apple en Verizon behoren tot de organisaties die beperkingen hebben opgelegd aan het gebruik van ChatGPT en soortgelijke tools door werknemers.

De trigger was Samsung. In 2023 hevelde Samsung een intern ChatGPT-verbod op — en binnen een maand vonden er drie afzonderlijke incidenten van lekken van broncode plaats. Werknemers plakten code van een halfgeleiderdatabase, code van een defectdetectieprogramma en interne notulen van vergaderingen in ChatGPT om hulp te krijgen. Zodra het was ingediend, werd de data opgeslagen op de servers van OpenAI. Samsung had geen mechanisme om het terug te halen of te verwijderen. Het verbod werd opnieuw opgelegd.

De zaak van Samsung werd het referentie-evenement voor beveiligingsteams overal: als een geavanceerd technologiebedrijf met toegewijde beveiligingsteams er niet in slaagt werknemers te voorkomen dat ze IP naar AI-tools lekken, is de enige optie om de tools volledig te blokkeren.

Of zo ging de redenering.

Waarom de bans faalden

27,4% van alle inhoud die in bedrijfs-AI-chatbots wordt gevoerd, bevat gevoelige informatie — een 156% stijging ten opzichte van het voorgaande jaar (Zscaler 2025 Data@Risk Report).

Dit cijfer weerspiegelt wat er gebeurde na de bans: werknemers bleven AI-tools gebruiken. Ze schakelden gewoon over naar niet-corporate accounts.

71,6% van de toegang tot bedrijfs-AI vindt nu plaats via niet-corporate accounts die de bedrijfs-DLP-controles omzeilen (LayerX 2025 Enterprise GenAI Security Report).

Het verbod stopte het gebruik van AI niet. Het duwde het gebruik van AI ondergronds, waar het minder zichtbaar, minder gecontroleerd en minder controleerbaar is. Een ontwikkelaar die ChatGPT via het bedrijfsaccount gebruikte — logs genereerde, DLP-waarschuwingen activeerde, tenminste zichtbaar voor beveiligingsoperaties — schakelde over naar het gebruik ervan via hun persoonlijke account op hun bedrijfsapparaat. Exact dezelfde data. Helemaal geen zichtbaarheid.

Dit is de fundamentele faalmodus van toolverboden in een tijdperk waarin dezelfde service beschikbaar is via persoonlijke accounts: het verbieden van het bedrijfsaccount verbiedt het gedrag niet.

Het Zscaler Data@Risk Report: Wat zit er eigenlijk in die prompts?

Het Zscaler 2025 Data@Risk Report biedt het meest gedetailleerde beeld van wat werknemers daadwerkelijk naar bedrijfs-AI-chatbots sturen. De 27,4% gevoelige gegevenscijfer is verdeeld over categorieën:

  • Proprietary bedrijfsinformatie en handelsgeheimen
  • Klantgegevens (namen, contactinformatie, accountgegevens)
  • Persoonlijke informatie van werknemers
  • Broncode (inclusief met ingebedde referenties)
  • Financiële gegevens (niet vrijgegeven winsten, dealvoorwaarden, contractwaarden)
  • Juridische communicatie en bevoorrechte informatie

De 156% stijging ten opzichte van het voorgaande jaar in gevoelige gegevens in AI-prompts (Zscaler 2025) weerspiegelt niet primair dat werknemers minder voorzichtig worden. Het weerspiegelt de groei van de adoptie van AI-tools zelf. Naarmate meer werknemers AI-tools voor meer taken gebruiken, groeit het absolute volume van gevoelige gegevens dat die tools binnenkomt evenredig.

De productiviteitskosten van AI-beperkingen

De beveiligingsreden voor het verbieden van AI is eenvoudig. De productiviteitsreden ertegen is even duidelijk.

Onderzoek toont consistent aan dat AI-assistentie aanzienlijke productiviteitswinsten oplevert voor kenniswerkers:

  • Ontwikkelaars die AI-coderingsassistenten gebruiken, voltooien taken sneller
  • Juridische professionals die AI gebruiken voor documentbeoordeling verwerken meer documenten per uur
  • Klantenserviceteams die AI gebruiken voor het opstellen van antwoorden behandelen meer tickets

Wanneer ondernemingen de toegang tot AI voor ontwikkelaars verbieden die concurrenten hebben die het vrij gebruiken, is het concurrentienadeel tastbaar. Wanneer analisten zonder AI-assistentie moeten werken, die hun collega's bij concurrenten routinematig gebruiken, stapelt de outputkloof zich in de loop van de tijd op.

De 71,6% omzeilingsgraad van persoonlijke accounts weerspiegelt niet alleen individueel regelbreken, maar ook rationeel economisch gedrag: de productiviteitswinst van AI is groot genoeg dat werknemers het risico van beleidsinbreuk accepteren in plaats van het hulpmiddel op te geven.

Het technische alternatief voor verbieden

De beveiligingszorgen die ten grondslag liggen aan AI-bans zijn legitiem: gevoelige gegevens die naar externe AI-providers stromen, creëren reëel risico. De oplossing is om dat risico technisch te elimineren — niet om productiviteitsverlies te accepteren in ruil voor een verbod dat werknemers toch zullen omzeilen.

De technische aanpak: anonimiseer gevoelige gegevens voordat ze het AI-model bereiken.

Overweeg de ontwikkelaar die een databasequery met klantidentificatoren in Claude plakt om hulp te krijgen bij optimalisatie. Met technische controles op hun plaats:

  1. De ontwikkelaar plakt de query (met klant-ID's, rekeningnummers, persoonlijk identificeerbare informatie)
  2. De anonimiseringslaag onderschept voordat verzending plaatsvindt
  3. Klant-ID's worden "[ID_1]", rekeningnummers worden "[ACCT_1]", namen worden "[CUSTOMER_1]"
  4. De geanonimiseerde query bereikt Claude
  5. Claude's antwoord (met dezelfde tokens) wordt teruggestuurd
  6. De ontwikkelaar ziet het antwoord met tokens — wat voldoende is om de optimalisatievoorstel te begrijpen

Claude verwerkte geen echte klantgegevens. De gevoelige informatie verliet het bedrijfsnetwerk nooit. De ontwikkelaar ontving de technische assistentie die ze nodig hadden. Het beveiligingsteam heeft niets te onderzoeken.

De MCP-serverarchitectuur voor ontwikkelaars

Voor ontwikkelaars die Claude Desktop of Cursor IDE gebruiken — de belangrijkste AI-coderingshulpmiddelen — biedt het Model Context Protocol (MCP) een transparante proxyarchitectuur.

De anonym.legal MCP-server bevindt zich tussen de AI-client van de ontwikkelaar en de API van het AI-model. Alle tekst die via het MCP-protocol wordt verzonden — inclusief bestandsinhoud, codefragmenten, foutmeldingen, configuratiebestanden en instructies in natuurlijke taal — passeert de anonimiseringsengine voordat deze het AI-model bereikt.

Vanuit het perspectief van de ontwikkelaar gebruiken ze Claude of Cursor normaal. De anonimiseringslaag is onzichtbaar.

Vanuit het perspectief van het beveiligingsteam verlaat er geen eigen code, referenties of klantgegevens het netwerk in identificeerbare vorm. Het AI-model verwerkt geanonimiseerde versies; antwoorden worden automatisch gedeanonimiseerd voor de ontwikkelaar.

Deze architectuur pakt het probleem van Samsung rechtstreeks aan: de werknemers die broncode in ChatGPT plakten, zouden geanonimiseerde code hebben ingediend, waarvan de details van het eigen algoritme met tokens waren vervangen voordat ze werden verzonden.

De Chrome-extensiearchitectuur voor browsergebaseerde AI

De MCP-server adresseert het gebruik van AI geïntegreerd in IDE's. Browsergebaseerd AI-gebruik — Claude.ai, ChatGPT, Gemini — vereist een andere technische laag.

De Chrome-extensie onderschept tekst voordat deze naar de AI-service wordt verzonden via de browserinterface. Dezelfde anonimiseringsengine is van toepassing: namen, bedrijfsidentificatoren, geheimen van broncode, financiële cijfers en andere gevoelige inhoud worden vervangen door tokens voordat de prompt de servers van de AI-provider bereikt.

De combinatie van MCP-server (IDE) + Chrome-extensie (browser) dekt het volledige spectrum van AI-contactpunten in een bedrijfsomgeving.

Het opbouwen van de businesscase

Voor CISOs die deze aanpak aan hun uitvoerende teams voorstellen, heeft de businesscase drie componenten:

1. Beveiliging gelijk aan een verbod — In termen van wat er daadwerkelijk externe AI-providers bereikt, bevatten geanonimiseerde prompts geen herstelbare gevoelige informatie. Een inbreuk op de systemen van de AI-provider zou niets van waarde opleveren met betrekking tot de klanten, IP of operaties van de organisatie.

2. Geen productiviteitsverlies — Ontwikkelaars, analisten en kenniswerkers blijven AI-tools normaal gebruiken. De anonimiseringslaag is transparant. De outputkwaliteit blijft ongewijzigd omdat AI-modellen net zo effectief werken op gepseudonimiseerde inhoud.

3. Elimineert het omzeilprobleem — De 71,6% omzeilingsgraad van persoonlijke accounts weerspiegelt werknemers die productiviteit boven beleidsnaleving kiezen. Wanneer werknemers AI-tools via bedrijfsaccounts kunnen gebruiken zonder risico, verdwijnt de motivatie om te omzeilen. Beveiligingsteams krijgen weer zicht op het gebruik van AI.

Het na-verbod speelboek

Voor ondernemingen die momenteel AI-bans hebben en deze heroverwegen, het overgangsspeelboek:

Fase 1 (Weken 1-2): Implementeer de Chrome-extensie via het Chrome Enterprise-beleid op alle bedrijfsapparaten. Dit biedt onmiddellijk browserniveau PII-onderschepping voor werknemers die al beperkingen omzeilden via persoonlijke accounts.

Fase 2 (Weken 3-4): Implementeer de MCP-server op ontwikkelaarswerkstations. Configureer aangepaste entiteitspatronen voor organisatie-specifieke gevoelige identificatoren (interne productcodes, klantaccountformaten, eigen technische termen).

Fase 3 (Maand 2): Til het verbod op het gebruik van AI voor bedrijfsaccounts op. Werknemers kunnen nu AI-tools gebruiken via bedrijfsaccounts met technische controles op hun plaats.

Fase 4 (Doorlopend): Monitor anonimiseringsactiviteit (welke categorieën gegevens het vaakst worden geanonimiseerd) om beveiligingstrainingprioriteiten te identificeren en de configuraties voor entiteitsdetectie aan te passen.

Het Samsung-incident dat de golf van bedrijfs-AI-bans in gang zette, weerspiegelde een beveiligingsfout, geen onvermijdelijk kenmerk van AI-tools. De technische controles die er op het moment van het verbod van Samsung niet waren, bestaan nu. De vraag is of beveiligingsteams ze zullen implementeren of blijven vertrouwen op verbodsbepalingen die 71,6% van hun werknemers al omzeilen.


De MCP-server en Chrome-extensie van anonym.legal bieden de technische controlelaag die de adoptie van bedrijfs-AI compatibel maakt met gegevensbeveiliging. Beide tools werken transparant — werknemers gebruiken AI normaal; gevoelige gegevens worden geanonimiseerd voordat ze externe AI-providers bereiken.

Bronnen:

Klaar om uw gegevens te beschermen?

Begin met het anonimiseren van PII met 285+ entiteitstypen in 48 talen.