Три инженерни екипа, Три инцидента, Един месец
През април 2023 г. Samsung Semiconductor разкри три отделни инцидента, при които служители са предали частни данни на ChatGPT в рамките на един месец.
Инцидентите не са свързани помежду си. Те включват различни служители в различни роли, преследващи различни задачи, в различни дни. Те споделяха само две характеристики: всеки служител използва ChatGPT за постигане на легитимна работна цел и всеки по невнимание предава данни, които Samsung не е възнамерявал да сподели с инфраструктурата на OpenAI.
Инцидент 1: Софтуерен инженер отстраняваше грешки в код, свързан с полупроводниково оборудване. Отстраняването на грешки в сложни системи е често срещан случай на използване на AI инструмент — предоставяне на код на AI модел и искане от него да идентифицира източника на неочаквано поведение. Инженерът постави изходния код от патентованите системи за полупроводниково оборудване на Samsung в ChatGPT. Кодът съдържаше интелектуална собственост, свързана с производствените процеси на Samsung.
Инцидент 2: Служител подготвяше резюме на срещата. Воденето на бележки с помощта на изкуствен интелект и обобщаването на срещи се превърнаха в стандартни инструменти за работен процес във всички индустрии. Служителят е подал бележки от срещата към ChatGPT за обобщаване. Тези бележки от срещата съдържаха поверителни вътрешни дискусии — бизнес стратегия, технически пътни карти и друга информация Samsung, считана за непублична.
Инцидент 3: Трети служител потърси предложения за оптимизация за заявка към база данни. Оптимизирането на базата данни е технически трудна задача, при която помощта на AI осигурява истинска стойност. Служителят предостави структурата на базата данни и логиката на заявките на ChatGPT. Логиката на заявката съдържа препратки към собствени структури от данни и бизнес логика.
Защо служителите го направиха
Нито един от тримата служители на Samsung не е действал безотговорно според собствените си професионални стандарти. Те използваха AI инструмент за задачи, за които AI инструментите са предназначени да помагат: отстраняване на грешки в кода, обобщаване на текст, техническа оптимизация.
Липсващият елемент във всеки случай беше техническо триене. Нито една система не е прихванала подаването, преди то да достигне сървърите на OpenAI. Никакъв контрол не маркира собственически кодови идентификатори, преди да напуснат корпоративната мрежа. Никакъв архитектурен слой не стоеше между законната нужда от работа на служителя и инфраструктурата на доставчика на AI.
Служителите бяха рационални. AI инструментът предостави истинска помощ при легитимни работни задачи. Предупреждението за правилата съществуваше, но не наложи техническа бариера. Последствията от неспазването — потенциални дисциплинарни действия за случайно действие — бяха абстрактни и далечни в сравнение с непосредствената полза от производителността на инструмента.
Резултатът: три инцидента за един месец, три разкривания на частна информация и корпоративна криза, която предизвика глобална вълна от корпоративни забрани на ИИ.
Отговорът на индустрията
Вътрешният отговор на Samsung беше бърз: достъпът до ChatGPT беше ограничен за корпоративни устройства. Разкриването предизвика по-широка реакция в индустрията, която разкри колко широко разпространено е основното състояние.
Организациите, които обявиха забрани или ограничения за AI инструменти след разкриването на Samsung, включват Bank of America, Citigroup, Goldman Sachs, JPMorgan Chase, Apple и Verizon. Отговорът на финансовия сектор беше особено изчерпателен — множество големи институции едновременно заключиха, че рисковият профил на инструментите на ИИ без технически контрол е несъвместим с техните задължения за съответствие.
Всяка организация стигна до едно и също заключение: служителите не са проблемът и предупрежденията за правилата не са достатъчен контрол. Данните напускаха мрежите им, защото никаква техническа бариера не им попречи, а политиката сама по себе си не може да създаде техническа бариера.
Скоростта на байпас от 71,6%.
Подходът за забрана има документиран процент на неуспех. Проучване на LayerX от 2025 г. установи, че 71,6% от служителите, подложени на корпоративни забрани за AI, продължават да използват AI инструменти чрез лични акаунти или устройства.
Степента на байпас отразява основното поведение: когато даден инструмент осигурява истинска стойност на производителността, потребителите намират заобиколни решения, вместо да изоставят инструмента завинаги. Служител, който открие, че AI помощта значително ускорява работата им, няма да спре да използва тези инструменти, тъй като корпоративната политика ги забранява на корпоративни устройства. Те ще използват лични акаунти на лични устройства през канали, които екипът по сигурността не може да види.
Практическата последица от 71,6% степен на заобикаляне е, че забраната на AI постига най-лошия възможен резултат: корпоративните данни достигат до доставчиците на AI чрез канали без никакви контроли за сигурност. Поне достъпът до корпоративни устройства теоретично може да бъде наблюдаван. Използването на личен акаунт е напълно невидимо за екипа по сигурността.
Трите инцидента на Samsung се случиха на корпоративни устройства чрез корпоративен достъп. Служителите, които заобикалят забраната, правят същото – предоставят свързани с работата данни на AI модели – чрез канали без надзор на предприятието.
Техническият контрол, който адресира първопричината
Инцидентите Samsung не са причинени от небрежност на служителите. Те са причинени от архитектура, която не предоставя слой за прихващане между използването на AI от служителите и външната AI инфраструктура.
Архитектурата на протокола за контекст на модела (MCP) осигурява прозрачен прокси между AI клиенти и API на AI модел. За разработчици, използващи Claude Desktop или Cursor IDE — основните инструменти за типа отстраняване на грешки в кода, причинил първия инцидент на Samsung — MCP сървърът се намира в пътя на протокола.
Преди някакъв текст да достигне до AI модела, MCP сървърът го обработва чрез механизъм за анонимизиране. Изходният код се анализира за патентовани идентификатори: имена на функции, имена на променливи, вътрешни крайни точки на API, подробности за схемата на базата данни, стойности на конфигурацията. Те се заменят със структурирани токени, преди кодът да достигне AI модела.
Разработчик, който иска от Claude да отстрани грешки в патентован Samsung полупроводников код чрез MCP сървър, оборудван с анонимизация, ще предаде код, в който собствените идентификатори са заменени с токени. AI моделът подпомага задачата за отстраняване на грешки, като използва анонимния код — което е достатъчно за анализ на кода. Собствените специфики никога не достигат до сървърите на доставчика на AI.
Инцидент 1 става технически невъзможен. Изходният код напуска мрежата в анонимна форма. AI осигурява помощта за отстраняване на грешки, от която инженерът се нуждае. Интелектуалната собственост на Samsung остава под контрола на Samsung.
Същата архитектура се прилага за Инцидент 2 (обобщаване на бележката от срещата чрез AI, базиран на браузър, адресирано от разширението за Chrome) и Инцидент 3 (оптимизиране на заявки в базата данни чрез всеки интерфейс за кодиране на AI, адресирано чрез анонимизиране на MCP).
Инцидентите Samsung бяха предварителен преглед на систематичен проблем. Вече съществуват техническите средства за контрол, насочени към първопричината. Въпросът е дали предприятията ще ги внедрят или ще продължат да разчитат на забрани, които 71,6% от техните служители вече заобикалят.
Източници:
- Регистърът: Samsung според съобщенията е изтекъл собствен изходен код чрез ChatGPT
- MoveoAI: Компании, които забраниха ChatGPT
- [Доклад за сигурността на LayerX 2025 Enterprise AI] (https://layerxsecurity.com/generative-ai/chatgpt-data-leak/)