Проблема поведения копирования и вставки
77% пользователей корпоративного ИИ копируют и вставляют данные в запросы к чат-ботам. Эта модель поведения не ограничивается неконтролируемым меньшинством — она является доминирующим способом взаимодействия с инструментами корпоративного ИИ. Когда сотрудники сталкиваются со сложным документом, вопросом клиента или аналитической задачей, естественный рабочий процесс таков: скопировать соответствующий контент, вставить его в инструмент ИИ, получить ответ.
Этот рабочий процесс не различает контент, содержащий личные данные, и контент, который их не содержит. Действие копирования и вставки предшествует решению о классификации. К тому времени, как сотрудник вставил контент и читает ответ ИИ, передача уже произошла. Обучение политике применяется в момент классификации — "должен ли я это вставить?" — но мгновенная природа решения означает, что воспоминание о политике ухудшается под когнитивной нагрузкой, давлением времени и привычным поведением.
Исследование Cyberhaven показало, что почти 40% загруженных файлов в инструменты ИИ содержат данные PII или PCI. Эта цифра включает сотрудников, которые полностью осведомлены о политиках использования ИИ: они загружают файл, с которым им нужно работать, который случайно содержит данные клиентов. Нарушение политики является случайным в рамках законной задачи.
Почему обучение не работает в масштабах
Программы обучения политике сталкиваются с одной и той же структурной ограниченностью во всех контекстах защиты данных: они пытаются изменить глубоко укоренившиеся модели поведения через периодические образовательные вмешательства. Интервалы между обучающими сессиями (обычно ежегодные) превышают постоянную времени распада поведения. Сотрудники, которые получили тщательное обучение по обработке данных ИИ в первом квартале, действуют в основном на основе привычки в четвертом квартале.
Обновление Правила безопасности HIPAA, предложенное в марте 2025 года — требующее ежегодных аудитов шифрования — отражает регуляторное признание того, что соблюдение политики требует периодической проверки технических мер, а не только программ обучения. Требование аудита подразумевает, что регуляторы ожидают, что технические меры будут основным механизмом, а обучение — вспомогательным механизмом.
Что касается утечек данных ИИ, поведение труднее предотвратить с помощью обучения, чем стандартные методы обработки данных, потому что оно происходит в новом контексте (инструменты ИИ не существовали, когда формировались большинство привычек обработки корпоративных данных) и потому что утечка не приводит к немедленным негативным последствиям, видимым для сотрудника.
Архитектура перехвата расширения Chrome
Расширение Chrome работает на уровне буфера обмена — до того, как вставленный контент достигнет поля ввода инструмента ИИ. Перехват происходит архитектурно до решения пользователя о подаче: сотрудник копирует контент из своего рабочего приложения, переключается на вкладку ChatGPT и вставляет. Расширение обнаруживает PII в содержимом буфера обмена в момент вставки, до того как контент появится в поле ввода.
Модальное окно предварительного просмотра показывает сотруднику точно то, что будет анонимизировано: "Имя клиента 'Мария Шмидт' → '[PERSON_1]'; Электронная почта 'maria.schmidt@company.de' → '[EMAIL_1]'." Сотрудник может продолжить с анонимизированной версией или отменить вставку, если конкретная замена неприемлема.
Модальное окно предварительного просмотра служит двум целям. Во-первых, оно обеспечивает прозрачность — сотрудники понимают, что делает инструмент, что создает соответствующее доверие и уменьшает восприятие того, что меры по защите конфиденциальности являются слежкой. Во-вторых, оно делает решение об анонимизации явным, а не молчаливым: сотрудник подтверждает каждую операцию анонимизации, создавая психологический момент, когда решение о классификации (являются ли это PII?) принимается человеком, а не автоматизировано.
Для команды поддержки клиентов европейской компании электронной коммерции: агенты составляют ответы с использованием ChatGPT, вставляя переписку с клиентами, содержащую имена, номера заказов и адреса. Расширение Chrome перехватывает каждую вставку, анонимизирует личные данные, и агент отправляет анонимизированный запрос. Ответы ChatGPT ссылаются на анонимизированные токены; агент может читать предложения ИИ и включать их в фактический ответ клиенту. Минимизация данных в соответствии со статьей 5 GDPR соблюдается; качество поддержки, улучшенное за счет помощи ИИ, сохраняется.
Источники: