블로그로 돌아가기AI 보안

FEMA에서 금융까지: 기술적 통제 없이 AI 정책이 매번 실패하는 이유

77%의 직원이 금지된 정책에도 불구하고 AI 도구와 민감한 업무 데이터를 공유합니다. 한 정부 계약자가 FEMA 홍수 구호 신청자 데이터를 ChatGPT에 붙여넣었습니다. 정책만으로는 AI 데이터 노출을 방지할 수 없습니다.

April 4, 20268 분 읽기
AI data governancetechnical controlsChatGPT policy failureChrome Extension DLPenterprise AI security

정책과 인간 행동의 만남

FEMA 홍수 구호 신청서를 처리하기 위해 시간 압박을 받던 한 정부 계약자는 재난 신청자의 이름, 주소, 연락처 및 건강 데이터를 ChatGPT에 붙여넣어 정보를 더 빠르게 처리했습니다. 의도는 악의적이지 않았습니다 — 압박 속에서 내린 생산성 결정이었습니다. 그 결과는 정부 조사, 공개 발표, 그리고 정책만으로 AI 거버넌스의 핵심 실패 모드를 보여주는 문서화된 사건이었습니다.

77%의 기업 직원이 정책이 금지하는 AI 도구와 민감한 업무 정보를 최소한 주 1회 공유합니다 (eSecurity Planet/Cyberhaven 2025). 77%라는 수치는 정책 위반자의 집합이 아니라 AI 도구가 채택된 현실을 반영합니다: 시간 압박, 반복 작업, 또는 복잡한 분석 요구에 직면했을 때 직원들이 본능적으로 선택하는 생산성 도구로서의 AI입니다.

Cyberhaven의 2025년 4분기 분석에 따르면 모든 ChatGPT 입력의 34.8%가 기밀 비즈니스 데이터를 포함하고 있습니다. 이 수치는 AI 사용 정책을 인지하고 있으며 이를 위반할 의도가 없는 직원들을 포함합니다 — 그들은 단순히 붙여넣는 순간에 데이터를 "기밀"로 분류하지 않았습니다.

정책 준수 문제

AI 사용 정책은 본질적으로 집행 격차에 직면해 있습니다. 접근 제어 정책(인증을 통해 기술적으로 집행 가능)이나 데이터 분류 정책(이메일/저장소 계층에서 DLP를 통해 집행 가능)과 달리, AI 사용 정책은 데이터 입력 순간의 인간 판단에 의존합니다.

직원이 고객 데이터를 ChatGPT에 붙여넣기로 결정하는 순간은 찰나의 행동 결정입니다. 직원은 정책을 기억하지 못할 수도 있고, 효율성 향상이 인식된 위험보다 크다고 계산했을 수도 있으며, 정책의 적용을 받는 데이터로 인식하지 못했을 수도 있습니다. 정책 교육은 이러한 결정의 빈도를 줄일 수 있지만, 대규모로 이를 제거할 수는 없습니다.

FEMA 사건은 전형적인 사례를 보여줍니다: 많은 양의 신청서, 마감일, 그리고 강력한 요약 도구에 접근할 수 있는 계약자. 정책 준수를 위해서는 AI 지원 대신 수동 처리를 선택해야 했습니다. 시간 압박 속에서 도구가 승리했습니다.

애플리케이션 계층의 기술적 통제

이 실패 모드를 해결하는 유일한 거버넌스 접근 방식은 정책 계층이 아닌 기술 계층에서 작동합니다. Chrome 확장은 클립보드 내용을 웹 기반 AI 인터페이스 — ChatGPT, Gemini, Claude.ai, Perplexity 등 —에 도달하기 전에 가로챕니다. 가로채기는 자동으로 이루어지며, 사용자가 정책을 적용해야 한다고 기억하는 것에 의존하지 않습니다.

FEMA 계약자가 사례 관리 시스템에서 신청자의 이름과 주소를 복사하여 ChatGPT에 붙여넣을 때, 확장은 클립보드 내용에서 PII를 감지하고 이를 익명화하여 익명화된 버전을 제출합니다. 계약자는 제출 전에 대체될 내용을 보여주는 미리보기 모달을 봅니다. AI는 비식별화된 데이터를 수신하고 여전히 요약 작업을 수행할 수 있습니다. 신청자의 이름, 주소 및 건강 데이터는 ChatGPT의 서버에 도달하지 않습니다.

AI 거버넌스 우려가 코딩 도구(Cursor, GitHub Copilot)에 집중된 조직의 경우, MCP 서버는 애플리케이션 계층에서 동등한 통제를 제공합니다. AI 모델 컨텍스트에 붙여넣은 코드는 가로채어지고, 자격 증명 및 독점 식별자는 토큰으로 대체되며, AI는 익명화된 버전을 수신합니다. 브라우저 기반 AI와 IDE 기반 AI 모두 사용자의 행동과 독립적으로 작동하는 기술적 통제를 통해 보호될 수 있습니다.

FEMA 계약자 시나리오는 기술적 통제가 마련되었다면 다른 결과를 초래했을 것입니다. 계약자는 신청서를 효율적으로 처리할 수 있었고, 신청자 데이터는 절대 ChatGPT에 도달하지 않았을 것이며, 조사가 촉발되지 않았을 것입니다. 정책 교육은 사건을 방지하지 못했습니다. 기술적 가로채기 계층이 이를 방지했을 것입니다.

출처:

데이터 보호를 시작할 준비가 되셨나요?

48개 언어로 285개 이상의 엔티티 유형으로 PII 익명화를 시작하세요.