anonym.legal
Назад к блогуБезопасность ИИ

JPMorgan, Goldman Sachs, Apple: Почему запреты на...

27,4% контента корпоративных ИИ-чатботов содержит конфиденциальные данные — увеличение на 156% по сравнению с прошлым годом.

March 9, 20269 мин чтения
enterprise AI securityChatGPT banAI data controlsshadow AI

Волна запретов на корпоративный ИИ

За последние два года значительная часть крупнейших предприятий мира запретила использование публичных ИИ-инструментов:

JPMorgan Chase, Deutsche Bank, Wells Fargo, Goldman Sachs, Bank of America, Apple и Verizon — среди организаций, которые внедрили ограничения на использование ChatGPT и аналогичных инструментов сотрудниками.

Триггером стал Samsung. В 2023 году Samsung снял внутренний запрет на ChatGPT — и в течение одного месяца произошло три отдельных инцидента утечки исходного кода. Сотрудники вставляли код базы данных полупроводников, код программы обнаружения дефектов и внутренние заметки встреч в ChatGPT, чтобы получить помощь. После отправки данные хранились на серверах OpenAI. У Samsung не было механизма для их извлечения или удаления. Запрет был вновь введен.

Дело Samsung стало эталонным событием для команд безопасности повсюду: если высокотехнологичная компания с выделенными командами безопасности не может предотвратить утечку интеллектуальной собственности сотрудниками в ИИ-инструменты, единственный вариант — полностью заблокировать эти инструменты.

И так рассуждали.

Почему запреты провалились

27,4% всего контента, подаваемого в корпоративные ИИ-чатботы, содержит конфиденциальную информациюувеличение на 156% по сравнению с прошлым годом (Zscaler 2025 Data@Risk Report).

Эта цифра отражает то, что произошло после запретов: сотрудники продолжали использовать ИИ-инструменты. Они просто переключились на некорпоративные аккаунты.

71,6% доступа к корпоративному ИИ теперь происходит через некорпоративные аккаунты, обходя корпоративные DLP-контроли (LayerX 2025 Enterprise GenAI Security Report).

Запрет не остановил использование ИИ. Он заставил использование ИИ уйти в подполье, где оно менее заметно, менее контролируемо и менее подлежит аудиту. Разработчик, который использовал ChatGPT через корпоративный аккаунт — генерируя логи, вызывая DLP-уведомления, по крайней мере, будучи видимым для операций безопасности — переключился на использование его через личный аккаунт на своем корпоративном устройстве. Точно те же данные. Никакой видимости вообще.

Это основная причина провала запретов на инструменты в эпоху, когда та же услуга доступна через личные аккаунты: запрет корпоративного аккаунта не запрещает поведение.

Отчет Zscaler Data@Risk: Что на самом деле содержится в этих подсказках

Отчет Zscaler 2025 Data@Risk предоставляет наиболее детальную картину того, что сотрудники на самом деле отправляют в корпоративные ИИ-чатботы. Цифра 27,4% конфиденциальных данных разбивается по категориям:

  • Коммерческая информация и торговые секреты
  • Данные клиентов (имена, контактная информация, детали аккаунтов)
  • Личная информация сотрудников
  • Исходный код (включая встроенные учетные данные)
  • Финансовые данные (неопубликованные доходы, условия сделок, значения контрактов)
  • Юридические коммуникации и привилегированная информация

Увеличение на 156% по сравнению с прошлым годом в конфиденциальных данных в ИИ-подсказках (Zscaler 2025) не отражает в первую очередь того, что сотрудники стали менее осторожными. Это отражает рост самого принятия ИИ-инструментов. Поскольку все больше сотрудников используют ИИ-инструменты для большего количества задач, абсолютный объем конфиденциальных данных, попадающих в эти инструменты, пропорционально увеличивается.

Стоимость продуктивности ограничений на ИИ

Аргументы безопасности за запрет ИИ просты. Аргументы против него в отношении продуктивности также ясны.

Исследования последовательно показывают, что помощь ИИ обеспечивает значительные приросты продуктивности для работников знаний:

  • Разработчики, использующие ИИ-ассистентов по программированию, выполняют задачи быстрее
  • Юридические специалисты, использующие ИИ для процесса проверки документов, обрабатывают больше документов в час
  • Команды поддержки клиентов, использующие ИИ для составления ответов, обрабатывают больше заявок

Когда предприятия запрещают доступ к ИИ для разработчиков, у которых конкуренты используют его свободно, конкурентное преимущество становится ощутимым. Когда аналитики должны работать без помощи ИИ, которую их коллеги в конкурентных фирмах используют регулярно, разрыв в производительности накапливается со временем.

Уровень обхода личных аккаунтов в 71,6% отражает не только индивидуальные нарушения правил, но и рациональное экономическое поведение: прирост продуктивности от ИИ достаточно велик, чтобы сотрудники принимали риск нарушения политики, а не отказывались от инструмента.

Техническая альтернатива запретам

Забота о безопасности, лежащая в основе запретов на ИИ, является законной: поток конфиденциальных данных к внешним ИИ-поставщикам создает реальный риск. Решение состоит в том, чтобы технически устранить этот риск — не принимать потерю продуктивности в обмен на запрет, который сотрудники все равно будут обходить.

Технический подход: анонимизировать конфиденциальные данные до того, как они достигнут модели ИИ.

Рассмотрим разработчика, который вставляет запрос к базе данных, содержащий идентификаторы клиентов, в Claude, чтобы получить помощь с оптимизацией. При наличии технических контролей:

  1. Разработчик вставляет запрос (содержащий идентификаторы клиентов, номера аккаунтов, личную информацию)
  2. Уровень анонимизации перехватывает данные перед передачей
  3. Идентификаторы клиентов становятся "[ID_1]", номера аккаунтов становятся "[ACCT_1]", имена становятся "[CUSTOMER_1]"
  4. Анонимизированный запрос достигает Claude
  5. Ответ Claude (с использованием тех же токенов) возвращается
  6. Разработчик видит ответ с токенами — что достаточно для понимания предложения по оптимизации

Claude не обрабатывал реальные данные клиентов. Конфиденциальная информация никогда не покидала корпоративную сеть. Разработчик получил необходимую техническую помощь. У команды безопасности нет ничего для расследования.

Архитектура сервера MCP для разработчиков

Для разработчиков, использующих Claude Desktop или Cursor IDE — основные инструменты ИИ для программирования — Протокол Контекста Модели (MCP) предоставляет прозрачную прокси-архитектуру.

Сервер anonym.legal MCP располагается между ИИ-клиентом разработчика и API модели ИИ. Весь текст, передаваемый через протокол MCP — включая содержимое файлов, фрагменты кода, сообщения об ошибках, конфигурационные файлы и инструкции на естественном языке — проходит через движок анонимизации перед тем, как достичь модели ИИ.

С точки зрения разработчика, он использует Claude или Cursor как обычно. Анонимизация невидима.

С точки зрения команды безопасности, никакой коммерческий код, учетные данные или данные клиентов не покидают сеть в идентифицируемой форме. Модель ИИ обрабатывает анонимизированные версии; ответы автоматически деанонимизируются для разработчика.

Эта архитектура напрямую решает проблему Samsung: сотрудники, которые вставляли исходный код в ChatGPT, отправляли бы анонимизированный код, в котором детали коммерческого алгоритма были заменены токенами перед передачей.

Архитектура расширения Chrome для браузерного ИИ

Сервер MCP решает использование ИИ, интегрированного в IDE. Использование браузерного ИИ — Claude.ai, ChatGPT, Gemini — требует другого технического уровня.

Расширение Chrome перехватывает текст перед его отправкой в ИИ-сервис через интерфейс браузера. Тот же движок анонимизации применяется: имена, идентификаторы компаний, секреты исходного кода, финансовые цифры и другой конфиденциальный контент заменяются токенами перед тем, как подсказка достигнет серверов ИИ-поставщика.

Сочетание сервера MCP (IDE) + расширения Chrome (браузер) охватывает весь спектр точек взаимодействия с ИИ в корпоративной среде.

Построение бизнес-кейса

Для CISO, предлагающих этот подход своим исполнительным командам, бизнес-кейс имеет три компонента:

1. Безопасность, эквивалентная запрету — С точки зрения того, что на самом деле достигает внешних ИИ-поставщиков, анонимизированные подсказки не содержат восстанавливаемой конфиденциальной информации. Утечка систем ИИ-поставщика не даст ничего ценного относительно клиентов, интеллектуальной собственности или операций организации.

2. Никакой жертвы продуктивности — Разработчики, аналитики и работники знаний продолжают использовать ИИ-инструменты как обычно. Анонимизация прозрачна. Качество вывода не изменяется, потому что модели ИИ работают так же эффективно с псевдонимизированным контентом.

3. Устранение проблемы обхода — Уровень обхода личных аккаунтов в 71,6% отражает выбор сотрудников продуктивности над соблюдением политики. Когда сотрудники могут использовать ИИ-инструменты через корпоративные аккаунты без риска, мотивация обхода исчезает. Команды безопасности восстанавливают видимость использования ИИ.

Игровая книга после запрета

Для предприятий, которые в настоящее время имеют запреты на ИИ и пересматривают их, игровая книга перехода:

Этап 1 (Недели 1-2): Развернуть расширение Chrome через политику Chrome Enterprise на все корпоративные устройства. Это немедленно обеспечивает перехват PII на уровне браузера для сотрудников, которые уже обходили ограничения через личные аккаунты.

Этап 2 (Недели 3-4): Развернуть сервер MCP на рабочих станциях разработчиков. Настроить пользовательские шаблоны сущностей для специфичных для организации конфиденциальных идентификаторов (внутренние коды продуктов, форматы аккаунтов клиентов, коммерческие технические термины).

Этап 3 (Месяц 2): Снять запрет на использование ИИ для корпоративных аккаунтов. Сотрудники теперь могут использовать ИИ-инструменты через корпоративные аккаунты с установленными техническими контролями.

Этап 4 (Постоянно): Мониторить активность анонимизации (какие категории данных анонимизируются чаще всего), чтобы определить приоритеты обучения безопасности и скорректировать конфигурации обнаружения сущностей.

Инцидент с Samsung, который вызвал волну запретов на корпоративный ИИ, отражал сбой в безопасности, а не неизбежное свойство ИИ-инструментов. Технические контролы, которые не существовали во время запрета Samsung, теперь существуют. Вопрос в том, развернут ли их команды безопасности или продолжат полагаться на запреты, которые уже обходят 71,6% их сотрудников.


Сервер MCP и расширение Chrome от anonym.legal предоставляют технический уровень контроля, который делает внедрение корпоративного ИИ совместимым с безопасностью данных. Оба инструмента работают прозрачно — сотрудники используют ИИ как обычно; конфиденциальные данные анонимизируются до достижения внешних ИИ-поставщиков.

Источники:

Готовы защитить ваши данные?

Начните анонимизацию PII с 285+ типов сущностей на 48 языках.