Powrót do blogaBezpieczeństwo AI

Dlaczego szkolenie w zakresie polityki nie zatrzymuje...

77% użytkowników AI w przedsiębiorstwach kopiuje i wkleja dane do zapytań chatbotów. Prawie 40% przesyłanych plików zawiera dane PII lub PCI.

April 15, 20268 min czytania
ChatGPT PII leak preventionChrome extension DLPenterprise AI policytechnical controls browsercopy-paste PII protection

Problem zachowań związanych z kopiowaniem i wklejaniem

77% użytkowników AI w przedsiębiorstwach kopiuje i wkleja dane do zapytań chatbotów. Ten wzór zachowań nie ogranicza się do niezgodnej mniejszości — jest to dominujący sposób interakcji w korzystaniu z narzędzi AI w przedsiębiorstwach. Gdy pracownicy napotykają złożony dokument, problem z klientem lub zadanie analityczne, naturalny przebieg pracy to: skopiowanie odpowiedniej treści, wklejenie jej do narzędzia AI, uzyskanie odpowiedzi.

Ten przebieg pracy nie rozróżnia treści, które zawierają dane osobowe, od treści, które ich nie zawierają. Działanie kopiowania i wklejania poprzedza decyzję o klasyfikacji. W momencie, gdy pracownik wkleił treść i czyta odpowiedź AI, transmisja już miała miejsce. Szkolenie w zakresie polityki jest stosowane w momencie klasyfikacji — "czy powinienem to wkleić?" — ale natura decyzji podejmowanej w ułamku sekundy oznacza, że przypomnienie polityki pogarsza się pod wpływem obciążenia poznawczego, presji czasowej i nawykowego zachowania.

Badania Cyberhaven wykazały, że prawie 40% przesyłanych plików do narzędzi AI zawiera dane PII lub PCI. Ta liczba obejmuje pracowników, którzy są w pełni świadomi polityki korzystania z AI: przesyłają plik, nad którym muszą pracować, który przypadkowo zawiera dane klientów. Naruszenie polityki jest przypadkowe w kontekście uzasadnionego zadania.

Dlaczego szkolenie nie działa na dużą skalę

Programy szkoleniowe w zakresie polityki napotykają tę samą strukturalną ograniczenie we wszystkich kontekstach ochrony danych: próbują zmienić głęboko zakorzenione wzorce zachowań poprzez okresowe interwencje edukacyjne. Interwały między sesjami szkoleniowymi (zazwyczaj rocznymi) przekraczają stałą czasową rozkładu zachowań. Pracownicy, którzy otrzymali dokładne szkolenie dotyczące obsługi danych AI w Q1, działają głównie nawykowo w Q4.

Proponowana aktualizacja zasady bezpieczeństwa HIPAA z marca 2025 roku — wymagająca corocznych audytów szyfrowania — odzwierciedla regulacyjne uznanie, że zgodność z polityką wymaga okresowej weryfikacji kontroli technicznych, a nie tylko programów szkoleniowych. Wymóg audytu sugeruje, że organy regulacyjne oczekują, że kontrole techniczne będą głównym mechanizmem, a szkolenie będzie mechanizmem uzupełniającym.

W przypadku wycieków danych AI, zachowanie jest trudniejsze do zapobieżenia poprzez szkolenie niż standardowe zachowania związane z obsługą danych, ponieważ występuje w nowym kontekście (narzędzia AI nie istniały, gdy formowały się większość nawyków związanych z obsługą danych w przedsiębiorstwie) i ponieważ wyciek nie powoduje natychmiastowych negatywnych konsekwencji widocznych dla pracownika.

Architektura przechwytywania rozszerzenia Chrome

Rozszerzenie Chrome działa na poziomie schowka — zanim wklejona treść dotrze do pola wejściowego narzędzia AI. Przechwytywanie ma miejsce architektonicznie przed decyzją użytkownika o przesłaniu: pracownik kopiuje treść z aplikacji roboczej, przełącza się na kartę ChatGPT i wkleja. Rozszerzenie wykrywa PII w treści schowka w momencie wklejenia, zanim treść pojawi się w polu wejściowym.

Modalny podgląd pokazuje pracownikowi dokładnie, co zostanie zanonimizowane: "Imię klienta 'Maria Schmidt' → '[PERSON_1]'; Email 'maria.schmidt@company.de' → '[EMAIL_1]'." Pracownik może kontynuować z wersją zanonimizowaną lub anulować wklejenie, jeśli konkretna zamiana jest nieakceptowalna.

Modalny podgląd pełni dwie funkcje. Po pierwsze, zapewnia przejrzystość — pracownicy rozumieją, co robi narzędzie, co buduje odpowiednie zaufanie i zmniejsza postrzeganie, że kontrole prywatności są nadzorem. Po drugie, czyni decyzję o anonimizacji wyraźną, a nie milczącą: pracownik potwierdza każdą operację anonimizacji, tworząc psychologiczny moment, w którym decyzja o klasyfikacji (czy to PII?) jest podejmowana przez człowieka, a nie automatycznie.

Dla zespołu wsparcia klienta europejskiej firmy e-commerce: agenci opracowują odpowiedzi przy użyciu ChatGPT, wklejając korespondencję klientów zawierającą imiona, numery zamówień i adresy. Rozszerzenie Chrome przechwytuje każde wklejenie, anonimizuje dane osobowe, a agent przesyła zanonimizowany prompt. Odpowiedzi ChatGPT odnoszą się do zanonimizowanych tokenów; agent może przeczytać sugestie AI i włączyć je do rzeczywistej odpowiedzi dla klienta. Zasada minimalizacji danych z artykułu 5 GDPR jest spełniona; poprawa jakości wsparcia dzięki pomocy AI jest utrzymywana.

Źródła:

Gotowy, aby chronić swoje dane?

Rozpocznij anonimizację PII z 285+ typami podmiotów w 48 językach.