anonym.legal
Назад към блогаСигурност на AI

JPMorgan, Goldman Sachs, Apple: Защо забраните на...

27,4% от съдържанието на корпоративния AI чатбот съдържа чувствителни данни – увеличение от 156% спрямо предходната година.

March 9, 20269 мин. четене
enterprise AI securityChatGPT banAI data controlsshadow AI

Вълната за забрана на ИИ на предприятието

През последните две години значителна част от най-големите предприятия в света забраниха публичните AI инструменти:

JPMorgan Chase, Deutsche Bank, Wells Fargo, Goldman Sachs, Bank of America, Apple и Verizon са сред организациите, които въведоха ограничения върху използването от служители на ChatGPT и подобни инструменти.

Спусъкът беше Samsung. През 2023 г. Samsung отмени вътрешната забрана на ChatGPT — и в рамките на един месец възникнаха три отделни инцидента с изтичане на изходен код. Служителите поставиха кода на базата данни на полупроводници, кода на програмата за откриване на дефекти и бележки за вътрешни срещи в ChatGPT, за да получат помощ. Веднъж изпратени, данните се съхраняват на сървърите на OpenAI. Samsung нямаше механизъм за извличане или изтриване. Забраната беше наложена отново.

Случаят Samsung се превърна в референтно събитие за екипите по сигурността навсякъде: ако една усъвършенствана технологична компания със специални екипи за сигурност не може да попречи на служителите да изтекат IP към AI инструменти, единствената опция е да блокира изцяло инструментите.

Или поне така се разсъждаваше.

Защо забраните се провалиха

27,4% от цялото съдържание, въведено в корпоративните чат ботове с изкуствен интелект, съдържа чувствителна информацияувеличение от 156% спрямо предходната година (Zscaler 2025 Data@Risk Report).

Това число отразява случилото се след забраните: служителите продължиха да използват AI инструменти. Те просто се прехвърлиха към некорпоративни сметки.

71,6% от корпоративния AI достъп сега се осъществява чрез некорпоративни акаунти, заобикаляйки корпоративните DLP контроли (LayerX 2025 Enterprise GenAI Security Report).

Забраната не спря използването на AI. Той избута използването на AI в нелегалност, където е по-малко видимо, по-малко контролирано и по-малко подлежащо на одит. Разработчик, който използваше ChatGPT през корпоративния акаунт - генерирайки регистрационни файлове, задействайки DLP сигнали, поне видими за операциите по сигурността - премина към използването му през личния си акаунт на корпоративното си устройство. Абсолютно същите данни. Никаква видимост.

Това е основният режим на неуспех при забраните на инструменти в епоха, в която същата услуга е достъпна чрез лични акаунти: забраната на корпоративния акаунт не забранява поведението.

Докладът Zscaler Data@Risk: Какво всъщност има в тези подкани

[Zscaler 2025 Data@Risk Report] (https://www.zscaler.com/learn/data-risk-report-2025-enterprise-data-security) предоставя най-подробната налична картина за това, което служителите всъщност изпращат на корпоративните AI чатботове. Цифрата 27,4% чувствителни данни се разделя на категории:

  • Собствена бизнес информация и търговски тайни
  • Данни за клиенти (имена, информация за контакт, данни за акаунт)
  • Лична информация за служителите
  • Изходен код (включително с вградени идентификационни данни)
  • Финансови данни (неиздадени печалби, условия на сделки, стойности на договори)
  • Правни съобщения и привилегирована информация

Увеличението от 156% спрямо предходната година на чувствителните данни в подканите на AI (Zscaler 2025) не отразява основно това, че служителите стават по-малко внимателни. Той отразява растежа на приемането на самия AI инструмент. Тъй като повече служители използват AI инструменти за повече задачи, абсолютният обем на чувствителните данни, влизащи в тези инструменти, нараства пропорционално.

Разходите за производителност на ограниченията на AI

Доводът за сигурност за забраната на AI е ясен. Доводът за производителност срещу него е също толкова ясен.

Изследванията последователно установяват, че помощта с изкуствен интелект води до значителни печалби в производителността на работещите в областта на знанието:

  • Разработчиците, използващи AI кодиращи асистенти, изпълняват задачите по-бързо
  • Юридическите специалисти, използващи AI за преглед на документи, обработват повече документи на час
  • Екипите за поддръжка на клиенти, използващи AI за изготвяне на отговори, обработват повече билети

Когато предприятията забраняват достъпа до AI за разработчици, които имат конкуренти, които го използват свободно, неизгодното конкурентно положение е осезаемо. Когато анализаторите трябва да работят без помощ от AI, която техните колеги в конкурентни фирми използват рутинно, разликата в продукцията се увеличава с течение на времето.

Степента на заобикаляне на личните акаунти от 71,6% отразява не само индивидуалното нарушаване на правилата, но и рационалното икономическо поведение: повишаването на производителността от AI е достатъчно голямо, така че служителите да приемат риска от нарушаване на правилата, вместо да изоставят инструмента.

Техническата алтернатива на забраната

Загрижеността за сигурността, която стои в основата на забраните за ИИ, е легитимна: чувствителните данни, които текат към външни доставчици на ИИ, създават реален риск. Решението е да елиминирате този риск технически - да не приемате загуба на производителност в замяна на забрана, която служителите така или иначе ще заобиколят.

Техническият подход: анонимизирайте чувствителните данни, преди да достигнат до AI модела.

Помислете за разработчика, който поставя заявка за база данни, съдържаща клиентски идентификатори, в Claude, за да получите помощ при оптимизацията. При наличие на технически контрол:

  1. Разработчикът поставя заявката (съдържаща идентификатори на клиенти, номера на сметки, лична информация)
  2. Слоят за анонимизиране прихваща преди предаване
  3. Идентификационните номера на клиенти стават „[ID_1]“, номерата на сметки стават „[ACCT_1]“, имената стават „[CUSTOMER_1]“
  4. Анонимизираната заявка достига до Claude
  5. Отговорът на Claude (използвайки същите токени) се връща
  6. Разработчикът вижда отговора с токени — което е достатъчно, за да разбере предложението за оптимизация

Claude не обработва реални клиентски данни. Чувствителната информация никога не е напускала корпоративната мрежа. Разработчикът получи необходимата техническа помощ. Екипът по сигурността няма какво да разследва.

Архитектурата на MCP сървъра за разработчици

За разработчиците, използващи Claude Desktop или Cursor IDE — основните инструменти за кодиране на AI — протоколът за контекст на модела (MCP) предоставя прозрачна прокси архитектура.

anonym.legal MCP сървърът се намира между AI клиента на разработчика и API на AI модела. Целият текст, предаван през протокола MCP — включително съдържанието на файла, кодови фрагменти, съобщения за грешки, конфигурационни файлове и инструкции на естествен език — преминава през механизма за анонимизиране, преди да достигне до AI модела.

От гледна точка на разработчиците, те използват Claude или Cursor нормално. Анонимизирането е невидимо.

От гледна точка на екипа по сигурността никакъв собствен код, идентификационни данни или клиентски данни не напускат мрежата в разпознаваема форма. AI моделът обработва анонимизирани версии; отговорите автоматично се деанонимизират за разработчика.

Тази архитектура адресира директно проблема Samsung: служителите, които са поставили изходния код в ChatGPT, биха изпратили анонимизиран код, от който детайлите на частния алгоритъм са били заменени с токени преди предаване.

Архитектурата на разширението на Chrome за AI, базиран на браузър

MCP сървърът адресира използването на AI, интегриран в IDE. Използването на AI на базата на браузър — Claude.ai, ChatGPT, Gemini — изисква различен технически слой.

Разширението за Chrome прихваща текст, преди да бъде изпратен на услугата AI през интерфейса на браузъра. Прилага се същата машина за анонимизиране: имена, идентификатори на компании, тайни на изходния код, финансови цифри и друго чувствително съдържание се заменят с токени, преди подканата да достигне до сървърите на доставчика на AI.

Комбинацията от MCP сървър (IDE) + разширение за Chrome (браузър) покрива пълния спектър от AI допирни точки в корпоративна среда.

Изграждане на бизнес казуса

За CISO, които предлагат този подход на своите изпълнителни екипи, бизнес казусът има три компонента:

1. Сигурност, еквивалентна на забрана — По отношение на това какво действително достига до външни доставчици на AI, анонимизираните подкани не съдържат възстановима чувствителна информация. Пробивът в системите на доставчика на AI не би довел до нищо ценно по отношение на клиентите, IP или операциите на организацията.

2. Нулева жертва на производителността — Разработчиците, анализаторите и специалистите в сферата на знанията продължават да използват нормално AI инструментите. Анонимизирането е прозрачно. Качеството на изхода е непроменено, тъй като AI моделите работят също толкова ефективно върху псевдонимизирано съдържание.

3. Елиминира проблема с байпаса — 71,6% процент на байпас на личния акаунт отразява избора на служителите на продуктивността пред спазването на правилата. Когато служителите могат да използват AI инструменти чрез корпоративни акаунти без риск, мотивацията за заобикаляне изчезва. Екипите по сигурността възвръщат видимостта на използването на AI.

The After-Ban Playbook

За предприятия, които в момента имат въведени забрани за AI и преразглеждат, ръководството за преход:

Фаза 1 (Седмици 1-2): Внедрете разширението на Chrome чрез правилата на Chrome Enterprise на всички корпоративни устройства. Това незабавно осигурява прихващане на PII на ниво браузър за служители, които вече са заобикаляли ограниченията чрез лични акаунти.

Фаза 2 (седмици 3-4): Внедряване на MCP сървър на работни станции за разработчици. Конфигурирайте персонализирани модели на обекти за специфични за организацията чувствителни идентификатори (вътрешни продуктови кодове, формати на клиентски акаунти, патентовани технически условия).

Фаза 3 (месец 2): Отменете забраната за използване на ИИ за корпоративни акаунти. Служителите вече могат да използват AI инструменти чрез корпоративни акаунти с въведен технически контрол.

Фаза 4 (текуща): Наблюдавайте дейността по анонимизиране (кои категории данни се анонимизират най-често), за да идентифицирате приоритетите за обучение по сигурността и да коригирате конфигурациите за откриване на обекти.

Инцидентът Samsung, който задейства вълната от забрана на ИИ в предприятието, отразява провал в сигурността, а не неизбежно свойство на инструментите за ИИ. Техническият контрол, който не съществуваше по време на забраната на Samsung, сега съществува. Въпросът е дали екипите по сигурността ще ги разположат или ще продължат да разчитат на забрани, които 71,6% от техните служители вече заобикалят.


MCP сървърът и разширението за Chrome на anonym.legal осигуряват слоя за технически контрол, който прави приемането на AI в предприятието съвместимо със сигурността на данните. И двата инструмента работят прозрачно — служителите използват AI нормално; чувствителните данни се анонимизират, преди да достигнат до външни доставчици на AI.

Източници:

Готови ли сте да защитите данните си?

Започнете анонимизация на PII с 285+ типа субекти на 48 езика.