ブログに戻るAIセキュリティ

JPMorgan、Goldman Sachs、Apple: 企業AI禁止が機能しない理由と実際に効果的な方法

企業AIチャットボットのコンテンツの27.4%が機密データを含んでおり、前年比156%の増加です。しかし、企業AIアクセスの71.6%は非企業アカウントを介して制御を回避しています。AI禁止の時代は終わりました。実際に効果的な方法はこれです。

March 9, 20269 分で読めます
enterprise AI securityChatGPT banAI data controlsshadow AI

企業AI禁止の波

過去2年間、世界最大の企業の一部が公的AIツールを禁止しました:

JPMorgan Chase、Deutsche Bank、Wells Fargo、Goldman Sachs、Bank of America、Apple、Verizonなどの組織が、従業員によるChatGPTや類似のツールの使用に制限を設けました。

そのきっかけはSamsungでした。2023年、Samsungは内部のChatGPT禁止を解除し、1か月以内に3件のソースコード漏洩事件が発生しました。従業員は半導体データベースのコード、欠陥検出プログラムのコード、内部会議のメモをChatGPTに貼り付けて助けを求めました。一度送信されると、データはOpenAIのサーバーに保存されました。Samsungはそれを取得または削除する手段を持っていませんでした。禁止は再度課されました。

Samsungのケースは、どこでもセキュリティチームの参考事例となりました: 専門のセキュリティチームを持つ高度な技術企業が従業員がAIツールに知的財産を漏洩するのを防げないなら、唯一の選択肢はツールを完全にブロックすることです。

そういう理由でした。

禁止が失敗した理由

企業AIチャットボットに投入されたすべてのコンテンツの27.4%が機密情報を含んでいます前年比156%の増加 (Zscaler 2025 Data@Risk Report).

この数字は禁止後に何が起こったかを反映しています: 従業員はAIツールの使用を続けました。彼らは単に非企業アカウントに移行しました。

企業AIアクセスの71.6%が現在非企業アカウントを介して行われています 企業のDLP制御を回避しています (LayerX 2025 Enterprise GenAI Security Report).

禁止はAIの使用を止めませんでした。それはAIの使用を地下に押しやり、そこでは見えにくく、制御が少なく、監査が難しくなります。企業アカウントを通じてChatGPTを使用していた開発者は、ログを生成し、DLPアラートを引き起こし、少なくともセキュリティオペレーションには見えていましたが、企業のデバイス上の個人アカウントを通じて使用するようになりました。全く同じデータです。全く見えません。

これは、同じサービスが個人アカウントを通じて利用可能な時代におけるツール禁止の根本的な失敗モードです: 企業アカウントを禁止しても行動は禁止されません。

Zscaler Data@Risk Report: 実際にそのプロンプトに何が含まれているのか

Zscaler 2025 Data@Risk Reportは、従業員が実際に企業AIチャットボットに送信している内容の最も詳細な画像を提供します。27.4%の機密データの数字はカテゴリごとに分解されます:

  • 専有ビジネス情報と営業秘密
  • 顧客データ(名前、連絡先情報、アカウントの詳細)
  • 従業員の個人情報
  • ソースコード(埋め込まれた資格情報を含む)
  • 財務データ(未発表の収益、契約条件、契約金額)
  • 法的コミュニケーションと特権情報

AIプロンプトにおける機密データの前年比156%の増加(Zscaler 2025)は、主に従業員が注意を怠るようになったことを反映しているわけではありません。それはAIツールの採用自体の成長を反映しています。より多くの従業員がより多くのタスクにAIツールを使用するにつれて、これらのツールに入る機密データの絶対量は比例して増加します。

AI制限の生産性コスト

AI禁止のセキュリティ上の理由は明確です。これに対する生産性の理由も同様に明確です。

研究は一貫して、AI支援が知識労働者にとって大幅な生産性向上をもたらすことを発見しています:

  • AIコーディングアシスタントを使用する開発者は、タスクをより早く完了します
  • 文書レビューのプロセスにAIを使用する法務専門家は、より多くの文書を1時間あたり処理します
  • 応答のドラフト作成にAIを使用するカスタマーサポートチームは、より多くのチケットを処理します

企業がAIアクセスを禁止すると、競合他社が自由に使用している開発者にとって競争上の不利が具体的になります。アナリストが競合企業の同僚が日常的に使用しているAI支援なしで作業しなければならないとき、出力のギャップは時間とともに拡大します。

71.6%の個人アカウント回避率は、単なる個々のルール違反を反映するだけでなく、合理的な経済行動を反映しています: AIからの生産性向上が大きいため、従業員はツールを放棄するのではなく、ポリシー違反のリスクを受け入れます。

禁止の技術的代替

AI禁止の根底にあるセキュリティの懸念は正当です: 外部AIプロバイダーに流れる機密データは実際のリスクを生み出します。解決策は、そのリスクを技術的に排除することです — 従業員がどうせ回避する禁止のために生産性の損失を受け入れないことです。

技術的アプローチ: AIモデルに到達する前に機密データを匿名化する

顧客識別子を含むデータベースクエリをClaudeに貼り付けて最適化の助けを求める開発者を考えてみてください。技術的制御が整っている場合:

  1. 開発者はクエリを貼り付けます(顧客ID、アカウント番号、個人を特定できる情報を含む)
  2. 匿名化レイヤーが送信前にインターセプトします
  3. 顧客IDは"[ID_1]"に、アカウント番号は"[ACCT_1]"に、名前は"[CUSTOMER_1]"になります
  4. 匿名化されたクエリがClaudeに到達します
  5. Claudeの応答(同じトークンを使用)は返されます
  6. 開発者はトークンを使用した応答を見ます — これは最適化提案を理解するのに十分です

Claudeは実際の顧客データを処理していません。機密情報は企業ネットワークを離れませんでした。開発者は必要な技術支援を受けました。セキュリティチームは調査するものがありません。

開発者のためのMCPサーバーアーキテクチャ

Claude DesktopまたはCursor IDEを使用する開発者のために — 主要なAIコーディングツール — モデルコンテキストプロトコル(MCP)は透明なプロキシアーキテクチャを提供します。

anonym.legalのMCPサーバーは、開発者のAIクライアントとAIモデルAPIの間に位置します。MCPプロトコルを介して送信されるすべてのテキスト — ファイル内容、コードスニペット、エラーメッセージ、設定ファイル、自然言語の指示を含む — は、AIモデルに到達する前に匿名化エンジンを通過します。

開発者の視点から見ると、彼らは通常通りClaudeまたはCursorを使用しています。匿名化は目に見えません。

セキュリティチームの視点から見ると、特許コード、資格情報、顧客データが識別可能な形でネットワークを離れることはありません。AIモデルは匿名化されたバージョンを処理し、応答は自動的に開発者のために非匿名化されます。

このアーキテクチャはSamsungの問題に直接対処します: ChatGPTにソースコードを貼り付けた従業員は、送信前に特許アルゴリズムの詳細がトークンに置き換えられた匿名化されたコードを提出していたでしょう。

ブラウザベースのAIのためのChrome拡張機能アーキテクチャ

MCPサーバーはIDE統合AIの使用に対処します。ブラウザベースのAIの使用 — Claude.ai、ChatGPT、Gemini — には異なる技術レイヤーが必要です。

Chrome拡張機能は、テキストがブラウザインターフェースを介してAIサービスに送信される前にインターセプトします。同じ匿名化エンジンが適用されます: 名前、会社識別子、ソースコードの秘密、財務数値、その他の機密コンテンツは、プロンプトがAIプロバイダーのサーバーに到達する前にトークンに置き換えられます。

MCPサーバー(IDE)とChrome拡張機能(ブラウザ)の組み合わせは、企業環境におけるAI接触点の全範囲をカバーします。

ビジネスケースの構築

このアプローチを経営チームに提案するCISOにとって、ビジネスケースには3つの要素があります:

1. 禁止に相当するセキュリティ — 外部AIプロバイダーに実際に到達するものに関して、匿名化されたプロンプトには回収可能な機密情報は含まれていません。AIプロバイダーのシステムの侵害は、組織の顧客、知的財産、または運営に関して価値のあるものを生み出すことはありません。

2. 生産性の犠牲はゼロ — 開発者、アナリスト、知識労働者は、通常通りAIツールを使用し続けます。匿名化は透明です。出力の質は変わらず、AIモデルは擬似匿名化されたコンテンツでも同様に効果的に機能します。

3. バイパス問題を排除 — 71.6%の個人アカウント回避率は、従業員がポリシー遵守よりも生産性を選択していることを反映しています。従業員がリスクなしに企業アカウントを通じてAIツールを使用できる場合、バイパスの動機は消えます。セキュリティチームはAIの使用に対する可視性を取り戻します。

禁止後のプレイブック

現在AI禁止が施行されている企業が再考している場合、移行プレイブック:

フェーズ1(1-2週間): Chromeエンタープライズポリシーを介してすべての企業デバイスにChrome拡張機能を展開します。これにより、すでに個人アカウントを介して制限を回避していた従業員に対して、ブラウザレベルのPIIインターセプトが即座に提供されます。

フェーズ2(3-4週間): 開発者のワークステーションにMCPサーバーを展開します。組織特有の機密識別子(内部製品コード、顧客アカウント形式、特許技術用語)に対するカスタムエンティティパターンを構成します。

フェーズ3(2か月): 企業アカウントのAI使用ポリシー禁止を解除します。従業員は、技術的制御が整った状態で企業アカウントを通じてAIツールを使用できるようになります。

フェーズ4(継続中): 匿名化活動(どのカテゴリのデータが最も頻繁に匿名化されているか)を監視して、セキュリティトレーニングの優先事項を特定し、エンティティ検出の構成を調整します。

Samsungの事件は企業AI禁止の波を引き起こしましたが、それはセキュリティの失敗を反映しており、AIツールの避けられない特性ではありません。Samsungの禁止時には存在しなかった技術的制御が現在は存在します。問題は、セキュリティチームがそれらを展開するか、71.6%の従業員がすでに回避している禁止に依存し続けるかです。


anonym.legalのMCPサーバーとChrome拡張機能は、企業AIの採用をデータセキュリティと互換性のあるものにする技術的制御レイヤーを提供します。両方のツールは透明に機能します — 従業員は通常通りAIを使用し、機密データは外部AIプロバイダーに到達する前に匿名化されます。

出典:

データを保護する準備はできましたか?

48言語で285以上のエンティティタイプを使用してPIIを匿名化し始めましょう。