Kiedy polityka spotyka ludzkie zachowanie
Kontrahent rządowy pod presją czasu, aby przetworzyć wnioski o pomoc powodziową FEMA, wkleił imiona, adresy, dane kontaktowe i dane zdrowotne wnioskodawców katastrof do ChatGPT, aby szybciej przetworzyć informacje. Intencja nie była złośliwa — była to decyzja dotycząca wydajności pod presją. Rezultatem była rządowa kontrola, ujawnienie publiczne i udokumentowany incydent, który ilustruje podstawowy tryb awarii zarządzania AI opartego wyłącznie na polityce.
77% pracowników przedsiębiorstw dzieli się wrażliwymi informacjami roboczymi z narzędziami AI przynajmniej raz w tygodniu mimo polityk tego zabraniających (eSecurity Planet/Cyberhaven 2025). Wartość 77% odzwierciedla nie pracowników łamiących politykę, ale rzeczywistość, jak narzędzia AI zostały przyjęte: jako narzędzia wydajnościowe, po które pracownicy sięgają odruchowo w obliczu presji czasowej, powtarzających się zadań lub złożonych wymagań analitycznych.
Analiza Cyberhaven z Q4 2025 wykazała, że 34,8% wszystkich danych wejściowych do ChatGPT zawiera poufne dane biznesowe. Ta liczba obejmuje pracowników, którzy są świadomi polityk dotyczących użycia AI i nie mają zamiaru ich łamać — po prostu nie sklasyfikowali danych, które wkleiły, jako "poufne" w momencie wklejania.
Problem zgodności z polityką
Polityki użycia AI stają w obliczu wewnętrznej luki w egzekwowaniu. W przeciwieństwie do polityk kontroli dostępu (które mogą być egzekwowane technicznie poprzez uwierzytelnianie) lub polityk klasyfikacji danych (które mogą być egzekwowane poprzez DLP na poziomie e-maila/magazynu), polityki użycia AI zależą od ludzkiego osądu w momencie wprowadzania danych.
Moment, w którym pracownik decyduje się wkleić dane klienta do ChatGPT, to decyzja behawioralna podejmowana w ułamku sekundy. Pracownik może nie przypominać sobie polityki, może obliczyć, że zysk z efektywności przewyższa postrzegane ryzyko, lub może szczerze nie rozpoznać danych jako objętych polityką. Szkolenie w zakresie polityki zmniejsza częstotliwość tej decyzji, ale nie może jej wyeliminować w skali.
Incydent z FEMA ilustruje archetyp: kontrahent stający w obliczu dużej liczby wniosków, terminu i dostępu do potężnego narzędzia do podsumowywania. Zgodność z polityką wymagała wyboru przetwarzania ręcznego zamiast wsparcia AI. Pod presją czasu, narzędzie wygrało.
Techniczne kontrole na poziomie aplikacji
Jedynym podejściem do zarządzania, które adresuje ten tryb awarii, działa na poziomie technicznym, a nie politycznym. Rozszerzenie Chrome przechwytuje zawartość schowka, zanim dotrze do jakiegokolwiek interfejsu AI opartego na sieci — ChatGPT, Gemini, Claude.ai, Perplexity lub innych. Przechwytywanie jest automatyczne; nie zależy od tego, czy użytkownik pamięta, aby zastosować politykę.
Kiedy kontrahent FEMA kopiuje imiona i adresy wnioskodawców z systemu zarządzania sprawami i wkleja je do ChatGPT, rozszerzenie wykrywa PII w zawartości schowka, anonimizuje je i przesyła zanonimizowaną wersję. Kontrahent widzi modalny podgląd pokazujący, co zostanie zastąpione przed przesłaniem. AI otrzymuje dane zanonimizowane i nadal może wykonać zadanie podsumowania. Imię, adres i dane zdrowotne wnioskodawcy nigdy nie docierają do serwerów ChatGPT.
Dla organizacji, których obawy dotyczące zarządzania AI koncentrują się na narzędziach kodowania (Cursor, GitHub Copilot), serwer MCP zapewnia równoważną kontrolę na poziomie aplikacji. Kod wklejony w kontekście modelu AI jest przechwytywany, dane uwierzytelniające i identyfikatory własnościowe są zastępowane tokenami, a AI otrzymuje zanonimizowaną wersję. Oba kanały — AI oparte na przeglądarkach i AI oparte na IDE — mogą być chronione poprzez techniczne kontrole, które działają niezależnie od zachowań użytkownika.
Scenariusz kontrahenta FEMA miałby inny wynik, gdyby były wprowadzone techniczne kontrole. Kontrahent mógłby efektywnie przetwarzać wnioski; dane wnioskodawców nigdy nie dotarłyby do ChatGPT; dochodzenie nie zostałoby uruchomione. Szkolenie w zakresie polityki nie zapobiegło incydentowi. Warstwa technicznego przechwytywania by to zrobiła.
Źródła: