anonym.legal
Назад к блогуБезопасность ИИ

От FEMA до финансов: почему политика ИИ без...

77% сотрудников делятся конфиденциальными рабочими данными с инструментами ИИ, несмотря на политики, запрещающие это.

April 4, 20268 мин чтения
AI data governancetechnical controlsChatGPT policy failureChrome Extension DLPenterprise AI security

Когда политика встречается с человеческим поведением

Подрядчик правительства, находясь под давлением времени для обработки заявок на помощь при наводнении FEMA, вставил имена, адреса, контактные данные и медицинские данные заявителей о бедствиях в ChatGPT, чтобы быстрее обработать информацию. Намерение не было злонамеренным — это было решение по повышению производительности, принятое под давлением. Результатом стало правительственное расследование, публичное раскрытие и задокументированный инцидент, который иллюстрирует основную модель неудачи управления ИИ только на основе политики.

77% сотрудников предприятий делятся конфиденциальной рабочей информацией с инструментами ИИ как минимум раз в неделю несмотря на политики, запрещающие это (eSecurity Planet/Cyberhaven 2025). Цифра 77% отражает не рабочую силу нарушителей политики, а реальность того, как инструменты ИИ были приняты: как инструменты повышения производительности, к которым работники обращаются рефлекторно, сталкиваясь с давлением времени, повторяющимися задачами или сложными требованиями анализа.

Анализ Cyberhaven за 4 квартал 2025 года показал, что 34.8% всех вводов в ChatGPT содержат конфиденциальные бизнес-данные. Эта цифра включает сотрудников, которые осведомлены о политиках использования ИИ и не намерены их нарушать — они просто не классифицировали данные, которые вставили, как "конфиденциальные" в момент вставки.

Проблема соблюдения политики

Политики использования ИИ сталкиваются с врожденным разрывом в обеспечении соблюдения. В отличие от политик контроля доступа (которые могут быть технически обеспечены через аутентификацию) или политик классификации данных (которые могут быть обеспечены через DLP на уровне электронной почты/хранения), политики использования ИИ зависят от человеческого суждения в момент ввода данных.

Момент, когда сотрудник решает вставить данные клиента в ChatGPT, является мгновенным поведенческим решением. Сотрудник может не вспомнить политику, может посчитать, что выгода в эффективности превышает воспринимаемый риск, или может искренне не распознать данные как подпадающие под действие политики. Обучение политике снижает частоту этого решения, но не может устранить его в масштабах.

Инцидент с FEMA демонстрирует архетип: подрядчик, сталкивающийся с большим объемом заявок, сроком выполнения и доступом к мощному инструменту суммирования. Соблюдение политики требовало выбора ручной обработки вместо помощи ИИ. Под давлением времени инструмент победил.

Технические средства контроля на уровне приложения

Единственный подход к управлению, который решает эту модель неудачи, работает на техническом уровне, а не на уровне политики. Расширение Chrome перехватывает содержимое буфера обмена до того, как оно достигнет любого веб-интерфейса ИИ — ChatGPT, Gemini, Claude.ai, Perplexity или других. Перехват происходит автоматически; он не зависит от того, помнит ли пользователь о необходимости применения политики.

Когда подрядчик FEMA копирует имена и адреса заявителей из системы управления делами и вставляет их в ChatGPT, расширение обнаруживает PII в содержимом буфера обмена, анонимизирует его и отправляет анонимизированную версию. Подрядчик видит предварительный просмотр модального окна, показывающего, что будет заменено перед отправкой. ИИ получает деидентифицированные данные и все еще может выполнять задачу суммирования. Имя, адрес и медицинские данные заявителя никогда не достигают серверов ChatGPT.

Для организаций, чьи проблемы управления ИИ сосредоточены на инструментах кодирования (Cursor, GitHub Copilot), сервер MCP предоставляет эквивалентный контроль на уровне приложения. Код, вставленный в контекст модели ИИ, перехватывается, учетные данные и собственные идентификаторы заменяются токенами, и ИИ получает анонимизированную версию. Оба канала — основанный на браузере ИИ и ИИ на основе IDE — могут быть защищены с помощью технических средств контроля, которые работают независимо от поведения пользователя.

Сценарий подрядчика FEMA имел бы другой исход с установленными техническими средствами контроля. Подрядчик мог бы эффективно обрабатывать заявки; данные заявителей никогда не достигли бы ChatGPT; расследование не было бы инициировано. Обучение политике не предотвратило инцидент. Слой технического перехвата мог бы это сделать.

Источники:

Готовы защитить ваши данные?

Начните анонимизацию PII с 285+ типов сущностей на 48 языках.