anonym.legal
Назад к блогуБезопасность ИИ

3.8 ежедневных утечек PII, о которых ваша команда...

Каждый агент поддержки, использующий ChatGPT, делает в среднем 3.8 вставок чувствительных данных в день.

April 18, 20268 мин чтения
accidental PII exposuresupport team ChatGPTCyberhaven 3.8 pastesworkflow PII protectionGDPR daily exposure

Математика ежедневной утечки

Исследование Cyberhaven показало, что сотрудники предприятий делают в среднем 3.8 вставок чувствительных данных в ChatGPT на пользователя в день. Для команды поддержки клиентов из 100 человек эта цифра составляет 380 случаев попадания чувствительных данных в ChatGPT ежедневно — каждый случай потенциально может представлять собой нарушение минимизации данных GDPR в соответствии со статьей 5(1)(c), которая требует, чтобы персональные данные были "адекватными, актуальными и ограниченными тем, что необходимо."

Цифра 3.8 не относится к сотрудникам, игнорирующим политику. Она отражает обычное поведение в рабочем процессе: агенты копируют переписку с клиентами, чтобы составить ответы, вставляют текст жалоб, чтобы генерировать эмпатичные ответы, включают данные учетной записи, чтобы получить контекстно-осознанные предложения. Каждая вставка является законным действием по повышению производительности, которое случайно включает личные данные. Сотрудник не решил раскрыть данные клиента; утечка была побочным продуктом решения эффективно использовать инструмент ИИ.

Аудит ЕС 2024 года показал, что 63% данных пользователей ChatGPT содержали личную идентифицируемую информацию. Только 22% пользователей знали, что могут отказаться от сбора данных через настройки ChatGPT. Это сочетание — большинство данных содержит PII, большинство пользователей не осведомлены о контроле — приводит к систематической ежедневной утечке в масштабах любой организации, которая не внедрила технические меры контроля.

Почему поведение нельзя изменить с помощью обучения

Рабочий процесс копирования и вставки глубоко привычен. Пользователи копируют и вставляют текст как основное взаимодействие с компьютером на протяжении десятилетий. Появление чат-бота ИИ в качестве места назначения для вставленного текста не изменило основное поведение; оно расширило установленный шаблон на новую цель.

Обучение политике, которое говорит "не вставляйте PII клиентов в ChatGPT", требует от сотрудников вставить решение о классификации — "содержит ли этот текст PII?" — в привычное действие, которое не включает естественную паузу. Эффект обучения уменьшается, когда поведение возвращается к привычке. Каждое отдельное решение о вставке является низкостепенным микро-решением; кумулятивный эффект 380 ежедневных решений представляет собой систематический риск несоответствия, который обучение политике не может надежно решить.

Техническое решение работает на уровне, где формируется привычка: само действие вставки. Расширение Chrome перехватывает содержимое буфера обмена в момент вставки, прежде чем содержимое достигнет поля ввода. Перехват не является барьером для соблюдения политики (пользователи всегда могут переопределить) — это инструмент прозрачности. Модальное окно предварительного просмотра показывает сотруднику, что было обнаружено, давая ему один момент видимости в решение о классификации перед продолжением.

Для ведущего команды поддержки немецкой электронной коммерции, который составляет ответы на жалобы клиентов: рабочий процесс остается "скопировать жалобу, вставить в ChatGPT, сгенерировать ответ." Расширение Chrome добавляет 2-секундную паузу, где агент видит, что имена, адреса и номера заказов были обнаружены и будут анонимизированы перед отправкой. Агент нажимает продолжить. Рабочий процесс продолжается. Нарушение соблюдения не происходит.

Источники:

Готовы защитить ваши данные?

Начните анонимизацию PII с 285+ типов сущностей на 48 языках.