Powrót do blogaBezpieczeństwo AI

JPMorgan, Goldman Sachs, Apple: Dlaczego zakazy AI w...

27,4% treści czatbotów AI w przedsiębiorstwach zawiera dane wrażliwe — wzrost o 156% w skali roku.

March 9, 20269 min czytania
enterprise AI securityChatGPT banAI data controlsshadow AI

Fala zakazów AI w przedsiębiorstwach

W ciągu ostatnich dwóch lat znaczna część największych przedsiębiorstw na świecie zakazała publicznych narzędzi AI:

JPMorgan Chase, Deutsche Bank, Wells Fargo, Goldman Sachs, Bank of America, Apple i Verizon to niektóre z organizacji, które wprowadziły ograniczenia w korzystaniu przez pracowników z ChatGPT i podobnych narzędzi.

Punktem wyjścia był Samsung. W 2023 roku Samsung zniósł wewnętrzny zakaz korzystania z ChatGPT — a w ciągu miesiąca doszło do trzech oddzielnych incydentów wycieku kodu źródłowego. Pracownicy wklejali kod bazy danych półprzewodników, kod programu do wykrywania wad i notatki z wewnętrznych spotkań do ChatGPT, aby uzyskać pomoc. Po przesłaniu dane były przechowywane na serwerach OpenAI. Samsung nie miał mechanizmu, aby je odzyskać lub usunąć. Zakaz został nałożony ponownie.

Sprawa Samsunga stała się punktem odniesienia dla zespołów bezpieczeństwa wszędzie: jeśli zaawansowana firma technologiczna z dedykowanymi zespołami bezpieczeństwa nie może zapobiec wyciekom IP przez pracowników do narzędzi AI, jedyną opcją jest całkowite zablokowanie tych narzędzi.

Tak brzmiało rozumowanie.

Dlaczego zakazy się nie powiodły

27,4% całej treści wprowadzanej do czatbotów AI w przedsiębiorstwach zawiera informacje wrażliwewzrost o 156% w skali roku (Zscaler 2025 Data@Risk Report).

Ta liczba odzwierciedla to, co się wydarzyło po wprowadzeniu zakazów: pracownicy nadal korzystali z narzędzi AI. Po prostu przeszli na konta niekorporacyjne.

71,6% dostępu do AI w przedsiębiorstwach odbywa się teraz za pośrednictwem kont niekorporacyjnych omijających korporacyjne kontrole DLP (LayerX 2025 Enterprise GenAI Security Report).

Zakaz nie powstrzymał korzystania z AI. Przeniósł korzystanie z AI do podziemia, gdzie jest mniej widoczne, mniej kontrolowane i mniej audytowalne. Programista, który korzystał z ChatGPT przez konto korporacyjne — generując logi, wywołując alerty DLP, przynajmniej widoczny dla operacji bezpieczeństwa — przeszedł na korzystanie z niego przez swoje osobiste konto na swoim urządzeniu korporacyjnym. Dokładnie te same dane. Żadnej widoczności.

To jest fundamentalny sposób niepowodzenia zakazów narzędzi w erze, w której ta sama usługa jest dostępna przez konta osobiste: zakazanie konta korporacyjnego nie zakazuje zachowania.

Raport Zscaler Data@Risk: Co tak naprawdę znajduje się w tych zapytaniach

Zscaler 2025 Data@Risk Report dostarcza najbardziej szczegółowego obrazu tego, co pracownicy faktycznie wysyłają do czatbotów AI w przedsiębiorstwach. Liczba 27,4% danych wrażliwych rozkłada się na kategorie:

  • Informacje o działalności i tajemnice handlowe
  • Dane klientów (imiona, dane kontaktowe, szczegóły konta)
  • Osobiste informacje pracowników
  • Kod źródłowy (w tym z wbudowanymi poświadczeniami)
  • Dane finansowe (niewydane zyski, warunki umowy, wartości kontraktów)
  • Komunikacje prawne i informacje objęte tajemnicą

Wzrost o 156% w skali roku w danych wrażliwych w zapytaniach AI (Zscaler 2025) nie odzwierciedla głównie tego, że pracownicy stają się mniej ostrożni. Odzwierciedla wzrost samego przyjęcia narzędzi AI. W miarę jak coraz więcej pracowników korzysta z narzędzi AI do coraz większej liczby zadań, całkowita objętość danych wrażliwych wchodzących do tych narzędzi rośnie proporcjonalnie.

Koszt produktywności ograniczeń AI

Argument bezpieczeństwa za zakazem AI jest prosty. Argument dotyczący produktywności przeciwko niemu jest równie jasny.

Badania konsekwentnie pokazują, że pomoc AI przynosi znaczne zyski produktywności dla pracowników wiedzy:

  • Programiści korzystający z asystentów kodowania AI wykonują zadania szybciej
  • Profesjonaliści prawni korzystający z AI do przeglądania dokumentów przetwarzają więcej dokumentów na godzinę
  • Zespoły wsparcia klienta korzystające z AI do tworzenia odpowiedzi obsługują więcej zgłoszeń

Gdy przedsiębiorstwa zakazują dostępu do AI dla programistów, którzy mają konkurentów korzystających z niego swobodnie, konkurencyjna niekorzyść jest namacalna. Gdy analitycy muszą pracować bez pomocy AI, z której ich koledzy w firmach konkurencyjnych korzystają rutynowo, luka w produkcji kumuluje się z czasem.

Wskaźnik 71,6% omijania kont osobistych odzwierciedla nie tylko łamanie zasad przez jednostki, ale także racjonalne zachowanie ekonomiczne: zysk produktywności z AI jest na tyle duży, że pracownicy akceptują ryzyko naruszenia polityki, zamiast porzucać narzędzie.

Techniczna alternatywa dla zakazów

Obawa o bezpieczeństwo leżąca u podstaw zakazów AI jest uzasadniona: przepływ danych wrażliwych do zewnętrznych dostawców AI stwarza realne ryzyko. Rozwiązaniem jest techniczne wyeliminowanie tego ryzyka — a nie akceptowanie utraty produktywności w zamian za zakaz, który pracownicy i tak będą omijać.

Podejście techniczne: anonimizować dane wrażliwe przed ich dotarciem do modelu AI.

Rozważ programistę, który wkleja zapytanie do bazy danych zawierające identyfikatory klientów do Claude, aby uzyskać pomoc w optymalizacji. Przy wprowadzonych kontrolach technicznych:

  1. Programista wkleja zapytanie (zawierające identyfikatory klientów, numery kont, informacje umożliwiające identyfikację)
  2. Warstwa anonimizacji przechwytuje przed transmisją
  3. Identyfikatory klientów stają się "[ID_1]", numery kont stają się "[ACCT_1]", imiona stają się "[CUSTOMER_1]"
  4. Anonimizowane zapytanie dociera do Claude
  5. Odpowiedź Claude'a (używająca tych samych tokenów) jest zwracana
  6. Programista widzi odpowiedź z tokenami — co jest wystarczające, aby zrozumieć sugestię optymalizacji

Claude nie przetworzył żadnych rzeczywistych danych klientów. Wrażliwe informacje nigdy nie opuściły sieci korporacyjnej. Programista otrzymał potrzebną pomoc techniczną. Zespół bezpieczeństwa nie ma nic do zbadania.

Architektura serwera MCP dla programistów

Dla programistów korzystających z Claude Desktop lub Cursor IDE — głównych narzędzi kodowania AI — Model Context Protocol (MCP) zapewnia przezroczystą architekturę proxy.

Serwer MCP anonym.legal znajduje się pomiędzy klientem AI programisty a API modelu AI. Wszystkie teksty przesyłane przez protokół MCP — w tym zawartość plików, fragmenty kodu, komunikaty o błędach, pliki konfiguracyjne i instrukcje w języku naturalnym — przechodzą przez silnik anonimizacji przed dotarciem do modelu AI.

Z perspektywy programisty korzystają oni z Claude lub Cursor w sposób normalny. Anonimizacja jest niewidoczna.

Z perspektywy zespołu bezpieczeństwa żaden kod własnościowy, poświadczenia ani dane klientów nie opuszczają sieci w identyfikowalnej formie. Model AI przetwarza wersje anonimizowane; odpowiedzi są automatycznie deanonimizowane dla programisty.

Ta architektura bezpośrednio rozwiązuje problem Samsunga: pracownicy, którzy wklejali kod źródłowy do ChatGPT, przesyłaliby kod anonimizowany, z którego szczegóły algorytmu własnościowego zostałyby zastąpione tokenami przed transmisją.

Architektura rozszerzenia Chrome dla AI w przeglądarkach

Serwer MCP zajmuje się zintegrowanym korzystaniem z AI w IDE. Korzystanie z AI w przeglądarkach — Claude.ai, ChatGPT, Gemini — wymaga innej warstwy technicznej.

Rozszerzenie Chrome przechwytuje tekst przed jego przesłaniem do usługi AI przez interfejs przeglądarki. Ta sama silnik anonimizacji ma zastosowanie: imiona, identyfikatory firm, tajemnice kodu źródłowego, liczby finansowe i inne wrażliwe treści są zastępowane tokenami przed dotarciem zapytania do serwerów dostawcy AI.

Połączenie serwera MCP (IDE) + rozszerzenia Chrome (przeglądarka) pokrywa pełne spektrum punktów styku AI w środowisku przedsiębiorstwa.

Budowanie argumentu biznesowego

Dla CISO proponujących to podejście swoim zespołom wykonawczym, argument biznesowy ma trzy składniki:

1. Bezpieczeństwo równoważne zakazowi — Jeśli chodzi o to, co faktycznie dociera do zewnętrznych dostawców AI, anonimizowane zapytania nie zawierają żadnych odzyskiwalnych informacji wrażliwych. Naruszenie systemów dostawcy AI nie przyniosłoby nic wartościowego dotyczącego klientów, IP ani operacji organizacji.

2. Brak poświęcenia produktywności — Programiści, analitycy i pracownicy wiedzy nadal korzystają z narzędzi AI w sposób normalny. Anonimizacja jest przezroczysta. Jakość wyjścia pozostaje niezmieniona, ponieważ modele AI działają równie skutecznie na treściach pseudonimizowanych.

3. Eliminacja problemu omijania — Wskaźnik 71,6% omijania kont osobistych odzwierciedla wybór pracowników dotyczący produktywności ponad przestrzeganie polityki. Gdy pracownicy mogą korzystać z narzędzi AI za pośrednictwem kont korporacyjnych bez ryzyka, motywacja do omijania znika. Zespoły bezpieczeństwa odzyskują widoczność korzystania z AI.

Plan działania po zakazie

Dla przedsiębiorstw, które obecnie mają wprowadzone zakazy AI i rozważają zmianę, plan przejścia:

Faza 1 (Tygodnie 1-2): Wdrożenie rozszerzenia Chrome za pośrednictwem polityki Chrome Enterprise na wszystkich urządzeniach korporacyjnych. To natychmiast zapewnia przechwytywanie PII na poziomie przeglądarki dla pracowników, którzy już omijali ograniczenia za pomocą kont osobistych.

Faza 2 (Tygodnie 3-4): Wdrożenie serwera MCP na stacjach roboczych programistów. Skonfiguruj niestandardowe wzorce encji dla specyficznych dla organizacji identyfikatorów wrażliwych (wewnętrzne kody produktów, formaty kont klientów, własne terminy techniczne).

Faza 3 (Miesiąc 2): Zniesienie polityki zakazu korzystania z AI dla kont korporacyjnych. Pracownicy mogą teraz korzystać z narzędzi AI za pośrednictwem kont korporacyjnych z wprowadzonymi kontrolami technicznymi.

Faza 4 (W trakcie): Monitorowanie aktywności anonimizacji (jakie kategorie danych są najczęściej anonimizowane), aby zidentyfikować priorytety szkolenia w zakresie bezpieczeństwa i dostosować konfiguracje wykrywania encji.

Incydent Samsunga, który wywołał falę zakazów AI w przedsiębiorstwach, odzwierciedlał niepowodzenie w zakresie bezpieczeństwa, a nie nieuniknioną cechę narzędzi AI. Kontrole techniczne, które nie istniały w czasie zakazu Samsunga, teraz istnieją. Pytanie brzmi, czy zespoły bezpieczeństwa je wdrożą, czy będą nadal polegać na zakazach, które 71,6% ich pracowników już omija.


Serwer MCP i rozszerzenie Chrome od anonym.legal zapewniają warstwę kontroli technicznej, która sprawia, że przyjęcie AI w przedsiębiorstwach jest zgodne z bezpieczeństwem danych. Oba narzędzia działają w sposób przezroczysty — pracownicy korzystają z AI normalnie; wrażliwe dane są anonimizowane przed dotarciem do zewnętrznych dostawców AI.

Źródła:

Gotowy, aby chronić swoje dane?

Rozpocznij anonimizację PII z 285+ typami podmiotów w 48 językach.