Када се политика суочи са људским понашањем
Владини извођач под временском притиском да обради FEMA захтеве за помоћ пострадалима је наклеио имена, адресе, контактне податке и здравствене информације пострадалих у ChatGPT да би брже обрадио информације. Намера није била злонамерна - била је то одлука о производности донета под притиском. Резултат је била владина истрага, јавно откривање и документовани инцидент који илуструје основни режим отказа управљања АИ политиком само политиком.
77% запослених у великим предузећима дели осетљиве радне информације са АИ алатима најмање једном недељно упркос политикама које то забрањују (eSecurity Planet/Cyberhaven 2025). Цифра од 77% не одражава радну снагу нарушавача политике већ реалност начина на који су АИ алати усвојени: као производни алати на које радници аутоматски реагују када су суочени са временским притиском, понављајућим задацима или сложеним захтевима за анализу.
Cyberhaven-ова анализа за Q4 2025 је открила да 34,8% свих ChatGPT уноса садржи повремене подаце пословања. Ова цифра укључује запослене који су свесни АИ политике коришћења и немају намеру да је нарушаве - једноставно нису категоризовали податке које су наклеили као "пверљиве" у тренутку наклејивања.
Проблем сагласности са политиком
АИ политике суочавају се са унутрашњом јазом спровођења. За разлику од политика контроле приступа (које се могу технички спровести кроз аутентификацију) или политика класификације података (које се могу спровести кроз DLP на e-mail/складишном слоју), АИ политике зависе од људске просудбе у тренутку уноса података.
Тренутак када запослени одлучи да наклеи податке о клијенту у ChatGPT је брза процена понашања. Запослени можда не памти политику, можда је израчунао да добитак у ефикасности надмашује замишљени ризик, или можда искрено не препознаје податке као обухваћене политиком. Обука о политици смањује учесталост ове одлуке али је не може елиминисати на великој скали.
FEMA инцидент демонстрира архетип: извођач суочен са великом количином захтева, роком и приступом моћном алату за сумирање. Усаглашеност са политиком је захтевала избор ручне обраде над АИ помоћи. Под временском притиском, алат је победио.
Технички контролни слој на нивоу апликације
Једини приступ управљању који реши овај режим отказа делује на техничком слоју умјесто на политичком слоју. Chrome екстензија пресреће садржај clipboard-а пре него што стигне до било ког веб-заснованог АИ интерфејса - ChatGPT, Gemini, Claude.ai, Perplexity или други. Пресретање је аутоматско; не зависи од тога да ли корисник памти да примени политику.
Када FEMA извођач копира имена и адресе пострадалих из система управљања случајима и наклеји у ChatGPT, екстензија открива PII у садржају clipboard-а, анонимизује га и подноси анонимизирану верзију. Извођач вида превиду модалну радњу која показује шта ће бити замењено пре подношења. АИ прима де-идентификоване податке и даље може извршити задатак сумирања. Имена, адресе и здравствени подаци пострадалих никада не стижу на ChatGPT серверима.
За организације чиме АИ управљање забринутосте центра на алате за кодирање (Cursor, GitHub Copilot), MCP сервер пружа еквивалентну контролу на нивоу апликације. Код наклејен у контекст АИ модела је пресречен, акредитиви и власнички идентификатори су замењени са жетонима, и АИ прима анонимизирану верзију. Оба канала - веб-заснована АИ и IDE-заснована АИ - могу бити заштићени кроз техничке контроле које делују независно од понашања корисника.
FEMA сценарио извођача би имао другачит исход са техничким контролама на месту. Извођач би могао да обради захтеве ефикасно; подаци пострадалих би никада не стигли до ChatGPT; истрага не би била покренута. Обука о политици није спречила инцидент. Слој техничког пресретања би имао.
Извори: