블로그로 돌아가기AI 보안

기업 AI 패러독스: 개발자에게 AI 접근 권한을 부여하면서 보안 구멍을 열지 않는 방법

은행들은 ChatGPT를 금지했습니다. 그들의 개발자들은 어쨌든 집에서 사용했습니다. 기업 AI 챗봇에 입력된 모든 콘텐츠의 27.4%가 민감한 데이터를 포함하고 있습니다(Zscaler 2025). 현재 기업 AI 접근의 71.6%가 기업 통제를 완전히 우회하고 있습니다.

April 6, 20269 분 읽기
enterprise AI banAI governanceMCP Server enterpriseZscaler AI data riskdeveloper AI policy

작동하지 않는 이진 선택

주요 기업들은 공공 AI 도구를 금지했습니다: JPMorgan, Deutsche Bank, Wells Fargo, Goldman Sachs, Bank of America, Apple, Verizon. 이러한 금지는 외부 AI 제공자에게 기밀 비즈니스 정보를 전송하는 것에 대한 문서화된 데이터 노출 사건과 규제 우려에 대응하여 시행되었습니다.

금지는 문제를 해결하지 못했습니다.

LayerX의 2025년 분석에 따르면 현재 기업 AI 접근의 71.6%가 비기업 계정을 통해 발생합니다 — 직원들이 기업 장치에서 개인 계정을 통해 ChatGPT, Claude 및 Gemini에 접근하거나 업무 목적으로 사용되는 개인 장치에서 접근하는 경우입니다. AI 금지는 IT 가시성, DLP 통제 및 준수 모니터링이 전혀 없는 그림자 AI 생태계를 생성했습니다.

Zscaler의 2025년 Data@Risk 보고서는 노출을 정량화했습니다: 기업 AI 챗봇에 입력된 모든 콘텐츠의 27.4%가 민감한 정보를 포함합니다전년 대비 156% 증가입니다. 이 증가는 금지가 방지하지 못한 AI 도구 채택의 확장과 기존 모니터링을 우회하는 그림자 AI 채널로의 이동이 결합되어 발생했습니다.

금지가 더 나쁜 결과를 초래하는 이유

경쟁 압력 역학은 그림자 AI 채택 패턴을 설명합니다. AI 코딩 지원을 허용하는 JPMorgan의 경쟁사 개발자들은 문제를 더 빨리 해결하고, 문서를 더 빨리 작성하며, 프로토타입을 더 빨리 만들 수 있습니다. 금지를 따르는 JPMorgan 개발자들은 동료 및 AI 도구에 대한 자신의 이전 경험에 비해 생산성 불이익을 겪습니다.

이러한 조건에서 정책 준수 행동 — AI 도구를 사용하지 않는 것 — 은 의식적인 노력이 필요한 행동입니다. AI 도구를 사용하는 것(개인 계정에서, 개인 장치에서)은 저항이 가장 적은 경로입니다. 그림자 AI를 사용하기로 한 각 개인의 결정은 합리적인 생산성 결정입니다; 집합적 효과는 명시된 목표의 반대 결과를 초래하는 준수 프로그램입니다: AI 사용은 계속되며, 전혀 모니터링되지 않는 채널에서 더 높은 볼륨으로 이루어집니다.

이것이 기업 AI 패러독스입니다: 민감한 데이터를 보호하기 위해 의도된 기술적 통제(금지)가 오히려 민감한 데이터 보호가 불가능한 채널에서 AI 사용을 집중시킵니다.

MCP 아키텍처 솔루션

패러독스를 해결하는 방법은 AI 사용을 금지하는 것이 아니라 가능하게 하는 기술적 통제입니다. MCP 서버는 AI 클라이언트와 AI 모델 API 사이에 위치합니다. 모든 프롬프트는 전송 전에 익명화 엔진을 통과합니다. 민감한 데이터는 토큰으로 대체됩니다. AI 모델은 진정한 지원을 위해 필요한 구조와 맥락을 포함하는 프롬프트 버전을 수신합니다 — 준수 노출을 초래하는 자격 증명, PII 또는 독점 식별자는 포함되지 않습니다.

500명의 개발자를 위한 AI 코딩 지원을 활성화하는 독일 자동차 제조업체의 CISO에게: MCP 서버 배포는 코드베이스의 독점 제조 알고리즘이 Claude 또는 GPT-4의 서버에 도달하기 전에 가로채진다는 것을 의미합니다. 보안 팀은 민감한 콘텐츠가 익명화 없이 기업 네트워크를 떠나지 않는다는 기술적 보장이 있기 때문에 AI 도구 사용을 승인할 수 있습니다. 개발자는 통제를 사용하지 않을 때와 동일하게 Cursor를 사용합니다; 감사 추적은 무엇이 가로채지고 대체되었는지를 보여줍니다.

이 아키텍처를 구현하는 기업은 이진 선택을 해결합니다: AI 도구가 허용되며, 데이터 보호를 자동으로 시행하는 기술적 가로채기 계층이 있습니다. 직원들은 동일한 생산성 이점을 제공하는 승인된 모니터링 채널을 가지므로 그림자 AI 채택이 감소합니다. CISO는 기술적 통제와 감사 추적을 얻습니다. 개발자는 AI 접근 권한을 얻습니다. 패러독스는 사라집니다.

출처:

데이터 보호를 시작할 준비가 되셨나요?

48개 언어로 285개 이상의 엔티티 유형으로 PII 익명화를 시작하세요.