anonym.legal
Назад към блогаСигурност на AI

Корпоративният AI парадокс: Как да дадем на...

Банките забраниха ChatGPT. Техните разработчици така или иначе го използваха от вкъщи.

April 6, 20269 мин. четене
enterprise AI banAI governanceMCP Server enterpriseZscaler AI data riskdeveloper AI policy

Двоичният избор, който не работи

Големите предприятия са забранили публичните инструменти за изкуствен интелект: JPMorgan, Deutsche Bank, Wells Fargo, Goldman Sachs, Bank of America, Apple, Verizon. Забраните бяха въведени в отговор на документирани инциденти с излагане на данни и регулаторни опасения относно предаването на поверителна бизнес информация на външни доставчици на AI.

Забраните не решиха проблема.

Анализът на LayerX от 2025 г. установи, че 71,6% от корпоративния AI достъп сега се осъществява чрез некорпоративни акаунти — служителите имат достъп до ChatGPT, Claude и Gemini чрез лични акаунти на корпоративни устройства или на лични устройства, използвани за работни цели. Забраната за AI създаде сенчеста AI екосистема, работеща изцяло извън ИТ видимостта, DLP контролите и мониторинга на съответствието.

Докладът Data@Risk на Zscaler за 2025 г. дава количествена оценка на експозицията: 27,4% от цялото съдържание, въведено в корпоративните AI чатботове, съдържа чувствителна информация156% увеличение спрямо предходната година. Увеличението се дължи на разширяването на приемането на AI инструменти, което забраните не попречиха, съчетано с миграцията към сенчести AI канали, които заобикалят какъвто и да е мониторинг.

Защо забраната води до по-лоши резултати

Динамиката на конкурентния натиск обяснява модела на внедряване на AI в сянка. Разработчиците от конкурентите на JPMorgan, които позволяват помощ при кодиране с изкуствен интелект, могат да затварят проблеми по-бързо, да пишат документация по-бързо и да правят прототипи по-бързо. Разработчиците на JPMorgan, които следват забраната, се сблъскват с недостатък на производителността в сравнение с колегите си и собствения си предишен опит с AI инструменти.

При тези условия поведението, съвместимо с правилата – без използване на AI инструменти – е поведението, което изисква съзнателни усилия. Използването на AI инструменти (от личен акаунт, на лично устройство) е пътят на най-малкото съпротивление. Всяко отделно решение за използване на изкуствен интелект в сянка е рационално решение за продуктивност; общият ефект е програма за съответствие, която постига обратното на заявената цел: използването на AI продължава, при по-висок обем, в напълно ненаблюдаван канал.

Това е парадоксът на корпоративния AI: техническият контрол (забраната), който имаше за цел да защити чувствителни данни, вместо това концентрира използването на AI в канали, където защитата на чувствителни данни е невъзможна.

Архитектурното решение на MCP

Решението на парадокса е технически контрол, който позволява използването на AI, вместо да го забранява. MCP сървърът се намира между AI клиента и API на AI модела. Всички подкани преминават през системата за анонимизиране преди предаване. Чувствителните данни се заменят с токени. AI моделът получава версия на подканата, която съдържа структурата и контекста, необходими за истинска помощ – без идентификационни данни, PII или собствени идентификатори, които създават излагане на съответствие.

За CISO на немски автомобилен производител, позволяващ AI кодираща помощ за 500 разработчици, като същевременно отговаря на GDPR: внедряването на MCP сървър означава, че патентованите производствени алгоритми в кодовата база се прихващат, преди да достигнат до сървърите на Claude или GPT-4. Екипът по сигурността може да одобри използването на AI инструмент, тъй като има техническа гаранция, че чувствителното съдържание няма да напусне корпоративната мрежа без анонимизиране. Разработчикът използва Cursor точно както биха го направили без контрола; одитната пътека показва какво е прихванато и заменено.

Предприятието, което внедрява тази архитектура, разрешава двоичния избор: разрешени са AI инструменти с технически слой за прихващане, който автоматично налага защита на данните. Приемането на Shadow AI намалява, тъй като служителите имат одобрен, наблюдаван канал, който осигурява същата полза от производителността. CISO получава технически контрол и одитни пътеки. Разработчиците получават достъп до AI. Парадоксът изчезва.

Източници:

Готови ли сте да защитите данните си?

Започнете анонимизация на PII с 285+ типа субекти на 48 езика.