Powrót do blogaBezpieczeństwo AI

3.8 codziennych ekspozycji PII, o których nie wie...

Każdy agent wsparcia korzystający z ChatGPT wykonuje średnio 3.8 wklejeń danych wrażliwych dziennie.

April 18, 20268 min czytania
accidental PII exposuresupport team ChatGPTCyberhaven 3.8 pastesworkflow PII protectionGDPR daily exposure

Matematyka codziennej ekspozycji

Badania Cyberhaven wykazały, że pracownicy przedsiębiorstw dokonują średnio 3.8 wklejeń danych wrażliwych do ChatGPT na użytkownika dziennie. Dla zespołu wsparcia klienta liczącego 100 osób, ta liczba przekłada się na 380 przypadków wprowadzania danych wrażliwych do ChatGPT dziennie — każdy przypadek potencjalnie stanowiący naruszenie minimalizacji danych GDPR na mocy Artykułu 5(1)(c), który wymaga, aby dane osobowe były "odpowiednie, istotne i ograniczone do tego, co konieczne."

Liczba 3.8 nie odnosi się do pracowników, którzy ignorują politykę. Odzwierciedla zwyczajne zachowanie w workflow: agenci kopiują korespondencję z klientami, aby sporządzić odpowiedzi, wklejają tekst skarg, aby generować empatyczne odpowiedzi, dołączają szczegóły konta, aby uzyskać sugestie uwzględniające kontekst. Każde wklejenie to uzasadniona akcja zwiększająca wydajność, która przypadkowo zawiera dane osobowe. Pracownik nie zdecydował się na ujawnienie danych klienta; ekspozycja była skutkiem decyzji o efektywnym wykorzystaniu narzędzia AI.

Audyt UE z 2024 roku wykazał, że 63% danych użytkowników ChatGPT zawierało dane osobowe. Tylko 22% użytkowników wiedziało, że mogą zrezygnować z gromadzenia danych poprzez ustawienia ChatGPT. Połączenie — większość danych zawiera PII, większość użytkowników nie jest świadoma kontroli — prowadzi do systematycznej codziennej ekspozycji na dużą skalę w każdej organizacji, która nie wdrożyła technicznych środków kontrolnych.

Dlaczego tego zachowania nie można wytrenować

Workflow kopiowania i wklejania jest głęboko nawykowy. Użytkownicy kopiują i wklejają tekst jako fundamentalną interakcję komputerową od dziesięcioleci. Dodanie czatu AI jako celu dla wklejanego tekstu nie zmieniło podstawowego zachowania; rozszerzyło ustalony wzór na nowy cel.

Szkolenie polityczne, które mówi "nie wklejaj danych PII klientów do ChatGPT", wymaga od pracowników wprowadzenia decyzji klasyfikacyjnej — "czy ten tekst zawiera PII?" — do nawykowej akcji, która naturalnie nie zawiera pauzy. Efekt szkolenia zanika, gdy zachowanie wraca do nawyku. Każda indywidualna decyzja o wklejeniu to niskostawkowa mikro-decyzja; skumulowany efekt 380 codziennych decyzji to systematyczne ryzyko zgodności, którego szkolenie polityczne nie może niezawodnie rozwiązać.

Rozwiązanie techniczne działa na poziomie, na którym kształtuje się nawyk: sama akcja wklejania. Rozszerzenie Chrome przechwytuje zawartość schowka w momencie wklejania, zanim zawartość dotrze do pola wejściowego. Przechwycenie nie jest barierą egzekwowania polityki (użytkownicy zawsze mogą to zignorować) — jest narzędziem przejrzystości. Modalny podgląd pokazuje pracownikowi, co zostało wykryte, dając mu chwilę widoczności w decyzję klasyfikacyjną przed kontynuowaniem.

Dla lidera zespołu wsparcia niemieckiej firmy e-commerce, który sporządza odpowiedzi na skargi klientów: workflow pozostaje "kopiuj skargę, wklej do ChatGPT, generuj odpowiedź." Rozszerzenie Chrome dodaje 2-sekundową przerwę, w której agent widzi, że wykryto imiona, adresy i numery zamówień, które zostaną zanonimizowane przed przesłaniem. Agent klika kontynuuj. Workflow trwa. Naruszenie zgodności nie występuje.

Źródła:

Gotowy, aby chronić swoje dane?

Rozpocznij anonimizację PII z 285+ typami podmiotów w 48 językach.