Волна запретов на корпоративный ИИ
За последние два года значительная часть крупнейших предприятий мира запретила использование публичных ИИ-инструментов:
JPMorgan Chase, Deutsche Bank, Wells Fargo, Goldman Sachs, Bank of America, Apple и Verizon — среди организаций, которые внедрили ограничения на использование ChatGPT и аналогичных инструментов сотрудниками.
Триггером стал Samsung. В 2023 году Samsung снял внутренний запрет на ChatGPT — и в течение одного месяца произошло три отдельных инцидента утечки исходного кода. Сотрудники вставляли код базы данных полупроводников, код программы обнаружения дефектов и внутренние заметки встреч в ChatGPT, чтобы получить помощь. После отправки данные хранились на серверах OpenAI. У Samsung не было механизма для их извлечения или удаления. Запрет был вновь введен.
Дело Samsung стало эталонным событием для команд безопасности повсюду: если высокотехнологичная компания с выделенными командами безопасности не может предотвратить утечку интеллектуальной собственности сотрудниками в ИИ-инструменты, единственный вариант — полностью заблокировать эти инструменты.
И так рассуждали.
Почему запреты провалились
27,4% всего контента, подаваемого в корпоративные ИИ-чатботы, содержит конфиденциальную информацию — увеличение на 156% по сравнению с прошлым годом (Zscaler 2025 Data@Risk Report).
Эта цифра отражает то, что произошло после запретов: сотрудники продолжали использовать ИИ-инструменты. Они просто переключились на некорпоративные аккаунты.
71,6% доступа к корпоративному ИИ теперь происходит через некорпоративные аккаунты, обходя корпоративные DLP-контроли (LayerX 2025 Enterprise GenAI Security Report).
Запрет не остановил использование ИИ. Он заставил использование ИИ уйти в подполье, где оно менее заметно, менее контролируемо и менее подлежит аудиту. Разработчик, который использовал ChatGPT через корпоративный аккаунт — генерируя логи, вызывая DLP-уведомления, по крайней мере, будучи видимым для операций безопасности — переключился на использование его через личный аккаунт на своем корпоративном устройстве. Точно те же данные. Никакой видимости вообще.
Это основная причина провала запретов на инструменты в эпоху, когда та же услуга доступна через личные аккаунты: запрет корпоративного аккаунта не запрещает поведение.
Отчет Zscaler Data@Risk: Что на самом деле содержится в этих подсказках
Отчет Zscaler 2025 Data@Risk предоставляет наиболее детальную картину того, что сотрудники на самом деле отправляют в корпоративные ИИ-чатботы. Цифра 27,4% конфиденциальных данных разбивается по категориям:
- Коммерческая информация и торговые секреты
- Данные клиентов (имена, контактная информация, детали аккаунтов)
- Личная информация сотрудников
- Исходный код (включая встроенные учетные данные)
- Финансовые данные (неопубликованные доходы, условия сделок, значения контрактов)
- Юридические коммуникации и привилегированная информация
Увеличение на 156% по сравнению с прошлым годом в конфиденциальных данных в ИИ-подсказках (Zscaler 2025) не отражает в первую очередь того, что сотрудники стали менее осторожными. Это отражает рост самого принятия ИИ-инструментов. Поскольку все больше сотрудников используют ИИ-инструменты для большего количества задач, абсолютный объем конфиденциальных данных, попадающих в эти инструменты, пропорционально увеличивается.
Стоимость продуктивности ограничений на ИИ
Аргументы безопасности за запрет ИИ просты. Аргументы против него в отношении продуктивности также ясны.
Исследования последовательно показывают, что помощь ИИ обеспечивает значительные приросты продуктивности для работников знаний:
- Разработчики, использующие ИИ-ассистентов по программированию, выполняют задачи быстрее
- Юридические специалисты, использующие ИИ для процесса проверки документов, обрабатывают больше документов в час
- Команды поддержки клиентов, использующие ИИ для составления ответов, обрабатывают больше заявок
Когда предприятия запрещают доступ к ИИ для разработчиков, у которых конкуренты используют его свободно, конкурентное преимущество становится ощутимым. Когда аналитики должны работать без помощи ИИ, которую их коллеги в конкурентных фирмах используют регулярно, разрыв в производительности накапливается со временем.
Уровень обхода личных аккаунтов в 71,6% отражает не только индивидуальные нарушения правил, но и рациональное экономическое поведение: прирост продуктивности от ИИ достаточно велик, чтобы сотрудники принимали риск нарушения политики, а не отказывались от инструмента.
Техническая альтернатива запретам
Забота о безопасности, лежащая в основе запретов на ИИ, является законной: поток конфиденциальных данных к внешним ИИ-поставщикам создает реальный риск. Решение состоит в том, чтобы технически устранить этот риск — не принимать потерю продуктивности в обмен на запрет, который сотрудники все равно будут обходить.
Технический подход: анонимизировать конфиденциальные данные до того, как они достигнут модели ИИ.
Рассмотрим разработчика, который вставляет запрос к базе данных, содержащий идентификаторы клиентов, в Claude, чтобы получить помощь с оптимизацией. При наличии технических контролей:
- Разработчик вставляет запрос (содержащий идентификаторы клиентов, номера аккаунтов, личную информацию)
- Уровень анонимизации перехватывает данные перед передачей
- Идентификаторы клиентов становятся "[ID_1]", номера аккаунтов становятся "[ACCT_1]", имена становятся "[CUSTOMER_1]"
- Анонимизированный запрос достигает Claude
- Ответ Claude (с использованием тех же токенов) возвращается
- Разработчик видит ответ с токенами — что достаточно для понимания предложения по оптимизации
Claude не обрабатывал реальные данные клиентов. Конфиденциальная информация никогда не покидала корпоративную сеть. Разработчик получил необходимую техническую помощь. У команды безопасности нет ничего для расследования.
Архитектура сервера MCP для разработчиков
Для разработчиков, использующих Claude Desktop или Cursor IDE — основные инструменты ИИ для программирования — Протокол Контекста Модели (MCP) предоставляет прозрачную прокси-архитектуру.
Сервер anonym.legal MCP располагается между ИИ-клиентом разработчика и API модели ИИ. Весь текст, передаваемый через протокол MCP — включая содержимое файлов, фрагменты кода, сообщения об ошибках, конфигурационные файлы и инструкции на естественном языке — проходит через движок анонимизации перед тем, как достичь модели ИИ.
С точки зрения разработчика, он использует Claude или Cursor как обычно. Анонимизация невидима.
С точки зрения команды безопасности, никакой коммерческий код, учетные данные или данные клиентов не покидают сеть в идентифицируемой форме. Модель ИИ обрабатывает анонимизированные версии; ответы автоматически деанонимизируются для разработчика.
Эта архитектура напрямую решает проблему Samsung: сотрудники, которые вставляли исходный код в ChatGPT, отправляли бы анонимизированный код, в котором детали коммерческого алгоритма были заменены токенами перед передачей.
Архитектура расширения Chrome для браузерного ИИ
Сервер MCP решает использование ИИ, интегрированного в IDE. Использование браузерного ИИ — Claude.ai, ChatGPT, Gemini — требует другого технического уровня.
Расширение Chrome перехватывает текст перед его отправкой в ИИ-сервис через интерфейс браузера. Тот же движок анонимизации применяется: имена, идентификаторы компаний, секреты исходного кода, финансовые цифры и другой конфиденциальный контент заменяются токенами перед тем, как подсказка достигнет серверов ИИ-поставщика.
Сочетание сервера MCP (IDE) + расширения Chrome (браузер) охватывает весь спектр точек взаимодействия с ИИ в корпоративной среде.
Построение бизнес-кейса
Для CISO, предлагающих этот подход своим исполнительным командам, бизнес-кейс имеет три компонента:
1. Безопасность, эквивалентная запрету — С точки зрения того, что на самом деле достигает внешних ИИ-поставщиков, анонимизированные подсказки не содержат восстанавливаемой конфиденциальной информации. Утечка систем ИИ-поставщика не даст ничего ценного относительно клиентов, интеллектуальной собственности или операций организации.
2. Никакой жертвы продуктивности — Разработчики, аналитики и работники знаний продолжают использовать ИИ-инструменты как обычно. Анонимизация прозрачна. Качество вывода не изменяется, потому что модели ИИ работают так же эффективно с псевдонимизированным контентом.
3. Устранение проблемы обхода — Уровень обхода личных аккаунтов в 71,6% отражает выбор сотрудников продуктивности над соблюдением политики. Когда сотрудники могут использовать ИИ-инструменты через корпоративные аккаунты без риска, мотивация обхода исчезает. Команды безопасности восстанавливают видимость использования ИИ.
Игровая книга после запрета
Для предприятий, которые в настоящее время имеют запреты на ИИ и пересматривают их, игровая книга перехода:
Этап 1 (Недели 1-2): Развернуть расширение Chrome через политику Chrome Enterprise на все корпоративные устройства. Это немедленно обеспечивает перехват PII на уровне браузера для сотрудников, которые уже обходили ограничения через личные аккаунты.
Этап 2 (Недели 3-4): Развернуть сервер MCP на рабочих станциях разработчиков. Настроить пользовательские шаблоны сущностей для специфичных для организации конфиденциальных идентификаторов (внутренние коды продуктов, форматы аккаунтов клиентов, коммерческие технические термины).
Этап 3 (Месяц 2): Снять запрет на использование ИИ для корпоративных аккаунтов. Сотрудники теперь могут использовать ИИ-инструменты через корпоративные аккаунты с установленными техническими контролями.
Этап 4 (Постоянно): Мониторить активность анонимизации (какие категории данных анонимизируются чаще всего), чтобы определить приоритеты обучения безопасности и скорректировать конфигурации обнаружения сущностей.
Инцидент с Samsung, который вызвал волну запретов на корпоративный ИИ, отражал сбой в безопасности, а не неизбежное свойство ИИ-инструментов. Технические контролы, которые не существовали во время запрета Samsung, теперь существуют. Вопрос в том, развернут ли их команды безопасности или продолжат полагаться на запреты, которые уже обходят 71,6% их сотрудников.
Сервер MCP и расширение Chrome от anonym.legal предоставляют технический уровень контроля, который делает внедрение корпоративного ИИ совместимым с безопасностью данных. Оба инструмента работают прозрачно — сотрудники используют ИИ как обычно; конфиденциальные данные анонимизируются до достижения внешних ИИ-поставщиков.
Источники: