anonym.legal
Назад към блогаСигурност на AI

От FEMA до финанси: Защо политиката за AI без...

77% от служителите споделят чувствителни работни данни с AI инструменти, въпреки че политиките го забраняват.

April 4, 20268 мин. четене
AI data governancetechnical controlsChatGPT policy failureChrome Extension DLPenterprise AI security

Когато политиката се срещне с човешкото поведение

Правителствен изпълнител под натиск от време за обработка на FEMA заявления за помощ при наводнения постави имена, адреси, данни за контакт и здравни данни на кандидати за бедствие в ChatGPT, за да обработи информацията по-бързо. Намерението не беше злонамерено - това беше решение за продуктивност, взето под натиск. Резултатът беше правителствено разследване, публично оповестяване и документиран инцидент, който илюстрира основния режим на неуспех на управлението на ИИ само чрез политики.

77% от корпоративните служители споделят чувствителна работна информация с AI инструменти поне веднъж седмично въпреки политиките, които го забраняват (eSecurity Planet/Cyberhaven 2025). Цифрата от 77% отразява не работна сила от нарушители на политиката, а реалността на начина, по който са възприети инструментите на ИИ: като инструменти за производителност, към които работниците посягат рефлексивно, когато са изправени пред натиск във времето, повтарящи се задачи или сложни изисквания за анализ.

Анализът на Cyberhaven за четвъртото тримесечие на 2025 г. установи, че 34,8% от всички въведени ChatGPT съдържат поверителни бизнес данни. Тази цифра включва служители, които са запознати с правилата за използване на AI и нямат намерение да ги нарушават — те просто не са категоризирали данните, които са поставили като „поверителни“ в момента на поставяне.

Проблемът със спазването на правилата

Политиките за използване на ИИ са изправени пред присъщи пропуски в прилагането. За разлика от политиките за контрол на достъпа (които могат да бъдат технически наложени чрез удостоверяване) или политиките за класифициране на данни (които могат да бъдат наложени чрез DLP на имейл/слоя за съхранение), политиките за използване на AI зависят от човешката преценка в момента на въвеждане на данни.

Моментът, в който служител реши да постави клиентски данни в ChatGPT, е поведенческо решение за части от секундата. Служителят може да не си спомня полицата, може да е изчислил, че повишаването на ефективността превишава възприемания риск или може наистина да не разпознае данните като обхванати от полицата. Политическото обучение намалява честотата на това решение, но не може да го премахне в мащаб.

Инцидентът FEMA демонстрира архетипа: изпълнител, изправен пред голям обем приложения, краен срок и достъп до мощен инструмент за обобщаване. Спазването на правилата изискваше избор на ръчна обработка пред помощ с изкуствен интелект. Под натиска на времето инструментът спечели.

Технически контроли на приложния слой

Единственият подход за управление, който адресира този режим на повреда, работи на техническия слой, а не на слоя на политиката. Разширението за Chrome прихваща съдържанието на клипборда, преди да достигне до който и да е уеб базиран AI интерфейс — ChatGPT, Gemini, Claude.ai, Perplexity или други. Прихващането е автоматично; не зависи от потребителя, който помни да приложи политика.

Когато изпълнителят на FEMA копира имена и адреси на кандидати от системата за управление на случаи и ги поставя в ChatGPT, разширението открива PII в съдържанието на клипборда, анонимизира го и изпраща анонимизираната версия. Изпълнителят вижда модал за предварителен преглед, показващ какво ще бъде заменено преди подаване. AI получава деидентифицирани данни и все още може да изпълнява задачата за обобщаване. Името, адресът и здравните данни на кандидата никога не достигат до сървърите на ChatGPT.

За организации, чието управление на ИИ се фокусира върху инструменти за кодиране (Cursor, GitHub Copilot), MCP сървърът осигурява еквивалентен контрол на приложния слой. Кодът, поставен в контекста на AI модела, се прихваща, идентификационните данни и собствените идентификатори се заменят с токени и AI получава анонимизираната версия. И двата канала – базиран на браузър AI и базиран на IDE AI – могат да бъдат защитени чрез технически контроли, които работят независимо от поведението на потребителя.

Сценарият на изпълнителя FEMA щеше да има различен резултат с въведен технически контрол. Изпълнителят би могъл да обработи заявленията ефективно; данните на заявителя никога не биха достигнали до ChatGPT; разследването нямаше да бъде образувано. Политическото обучение не предотврати инцидента. Слоят за техническо прихващане би имал.

Източници:

Готови ли сте да защитите данните си?

Започнете анонимизация на PII с 285+ типа субекти на 48 езика.