Три инженерные команды, три инцидента, один месяц
В апреле 2023 года Samsung Semiconductor раскрыла три отдельных инцидента, в которых сотрудники передали собственные данные в ChatGPT в течение одного месяца.
Инциденты не были связаны друг с другом. В них участвовали разные сотрудники с разными ролями, выполняющие разные задачи в разные дни. У них было только две характеристики: каждый сотрудник использовал ChatGPT для достижения законной рабочей цели, и каждый непреднамеренно передал данные, которые Samsung не намеревалась делиться с инфраструктурой OpenAI.
Инцидент 1: Программист отлаживал код, связанный с полупроводниковым оборудованием. Отладка сложных систем — это распространенный случай использования ИИ-инструментов — предоставление кода ИИ-модели и просьба определить источник неожиданного поведения. Инженер вставил исходный код из собственных систем полупроводникового оборудования Samsung в ChatGPT. Код содержал интеллектуальную собственность, связанную с производственными процессами Samsung.
Инцидент 2: Один из сотрудников готовил резюме встречи. Помощь ИИ в ведении заметок и резюмировании встреч стала стандартным рабочим инструментом в различных отраслях. Сотрудник отправил заметки встречи в ChatGPT для резюмирования. Эти заметки содержали конфиденциальные внутренние обсуждения — бизнес-стратегию, технические дорожные карты и другую информацию, которую Samsung считала непубличной.
Инцидент 3: Третий сотрудник искал предложения по оптимизации запроса к базе данных. Оптимизация базы данных — это технически сложная задача, где помощь ИИ действительно приносит пользу. Сотрудник предоставил структуру базы данных и логику запроса в ChatGPT. Логика запроса содержала ссылки на собственные структуры данных и бизнес-логику.
Почему сотрудники это сделали
Ни один из трех сотрудников Samsung не действовал безответственно по своим профессиональным стандартам. Они использовали ИИ-инструмент для задач, для которых предназначены ИИ-инструменты: отладка кода, резюмирование текста, техническая оптимизация.
Недостающим элементом в каждом случае было техническое трение. Ни одна система не перехватила отправку до того, как она достигла серверов OpenAI. Ни один контроль не отметил идентификаторы собственных кодов до их выхода из корпоративной сети. Ни один архитектурный уровень не стоял между законной рабочей необходимостью сотрудника и инфраструктурой поставщика ИИ.
Сотрудники были рациональны. ИИ-инструмент предоставлял реальную помощь в законных рабочих задачах. Политическое предупреждение существовало, но не накладывало технических барьеров. Последствия несоответствия — потенциальные дисциплинарные меры за случайный акт — были абстрактными и удаленными по сравнению с немедленной продуктивностью инструмента.
Результат: три инцидента за один месяц, три раскрытия собственных данных и корпоративный кризис, который вызвал глобальную волну запретов на ИИ в компаниях.
Ответ отрасли
Внутренний ответ Samsung был быстрым: доступ к ChatGPT был ограничен для корпоративных устройств. Раскрытие вызвало более широкую реакцию отрасли, которая показала, насколько широко распространено это состояние.
Организации, которые объявили о запретах или ограничениях на ИИ-инструменты после раскрытия Samsung, включали Bank of America, Citigroup, Goldman Sachs, JPMorgan Chase, Apple и Verizon. Ответ финансового сектора был особенно всеобъемлющим — несколько крупных учреждений одновременно пришли к выводу, что риск-профиль ИИ-инструментов без технических контролей несовместим с их обязательствами по соблюдению норм.
Каждая организация пришла к одному и тому же выводу: сотрудники не являются проблемой, и политические предупреждения не являются достаточными контролями. Данные покидали их сети, потому что никакой технический барьер не предотвращал этого, и одна политика не может создать технический барьер.
Уровень обхода 71.6%
Подход запрета имеет задокументированную степень неудачи. Исследование LayerX 2025 года показало, что 71.6% сотрудников, подверженных запретам на ИИ в компаниях, продолжали использовать ИИ-инструменты через личные аккаунты или устройства.
Уровень обхода отражает основное поведение: когда инструмент предоставляет реальную продуктивную ценность, пользователи находят обходные пути, а не отказываются от инструмента навсегда. Сотрудник, который обнаруживает, что помощь ИИ существенно ускоряет его рабочий процесс, не остановится в использовании этих инструментов, потому что корпоративная политика запрещает их на корпоративных устройствах. Они будут использовать личные аккаунты на личных устройствах через каналы, которые команда безопасности не может видеть.
Практическое последствие уровня обхода 71.6% заключается в том, что запрет на ИИ достигает наихудшего результата: корпоративные данные попадают к поставщикам ИИ через каналы, где нет никаких средств безопасности. По крайней мере, доступ к корпоративным устройствам теоретически можно было бы контролировать. Использование личных аккаунтов полностью невидимо для команды безопасности.
Три инцидента Samsung произошли на корпоративных устройствах через корпоративный доступ. Сотрудники, которые обходят запрет, делают то же самое — предоставляют рабочие данные ИИ-моделям — через каналы без корпоративного контроля.
Технический контроль, который устраняет коренную причину
Инциденты Samsung не были вызваны небрежностью сотрудников. Они были вызваны архитектурой, которая не предоставила уровня перехвата между использованием ИИ сотрудниками и внешней инфраструктурой ИИ.
Архитектура Model Context Protocol (MCP) предоставляет прозрачный прокси между клиентами ИИ и API моделей ИИ. Для разработчиков, использующих Claude Desktop или Cursor IDE — основные инструменты для отладки кода, которая вызвала первый инцидент Samsung — MCP Server находится в протокольном пути.
Прежде чем любой текст достигнет модели ИИ, MCP Server обрабатывает его через движок анонимизации. Исходный код анализируется на предмет собственных идентификаторов: имена функций, имена переменных, внутренние конечные точки API, детали схемы базы данных, значения конфигурации. Эти идентификаторы заменяются структурированными токенами перед тем, как код достигнет модели ИИ.
Разработчик, просящий Claude отладить собственный код полупроводников Samsung через MCP Server с анонимизацией, передаст код, в котором собственные идентификаторы были заменены токенами. Модель ИИ помогает с задачей отладки, используя анонимизированный код — что достаточно для анализа кода. Собственные детали никогда не достигают серверов поставщика ИИ.
Инцидент 1 становится технически невозможным. Исходный код покидает сеть в анонимизированной форме. ИИ предоставляет помощь в отладке, которая была нужна инженеру. Интеллектуальная собственность Samsung остается под контролем Samsung.
Та же архитектура применяется к Инциденту 2 (резюмирование заметок встречи через ИИ на базе браузера, решаемое с помощью расширения Chrome) и Инциденту 3 (оптимизация запроса к базе данных через любой интерфейс кодирования ИИ, решаемое с помощью анонимизации MCP).
Инциденты Samsung были предварительным просмотром системной проблемы. Технические контролы, которые устраняют коренную причину, теперь существуют. Вопрос в том, будут ли предприятия их внедрять или продолжат полагаться на запреты, которые уже обходят 71.6% их сотрудников.
Источники: