ポリシーと人間の行動が出会うとき
FEMAの洪水救済申請を処理するために時間に追われている政府の契約者は、災害申請者の名前、住所、連絡先、健康データをChatGPTに貼り付けて情報を迅速に処理しました。意図は悪意のあるものではなく、圧力の下での生産性の決定でした。その結果、政府の調査、公の開示、そしてポリシーのみのAIガバナンスの核心的な失敗モードを示す文書化された事件が生じました。
企業の従業員の77%が、ポリシーで禁止されているにもかかわらず、少なくとも週に1回はAIツールと機密の業務情報を共有しています(eSecurity Planet/Cyberhaven 2025)。この77%の数字は、ポリシー違反者の労働力を反映するものではなく、AIツールがどのように採用されているかの現実を反映しています:時間的プレッシャー、繰り返しのタスク、または複雑な分析要件に直面したときに、労働者が反射的に手を伸ばす生産性ツールとしてです。
Cyberhavenの2025年第4四半期の分析によると、すべてのChatGPT入力の34.8%が機密のビジネスデータを含んでいます。この数字には、AI使用ポリシーを認識していて、違反する意図がない従業員も含まれています — 彼らは単に貼り付けたデータをその瞬間に「機密」として分類しなかったのです。
ポリシー遵守の問題
AI使用ポリシーは、固有の執行ギャップに直面しています。アクセス制御ポリシー(認証を通じて技術的に執行可能)やデータ分類ポリシー(メール/ストレージ層でのDLPを通じて執行可能)とは異なり、AI使用ポリシーはデータ入力の瞬間に人間の判断に依存しています。
従業員が顧客データをChatGPTに貼り付けることを決定する瞬間は、一瞬の行動的決定です。従業員はポリシーを思い出さないかもしれませんし、効率の向上が認識されたリスクを上回ると計算したかもしれませんし、ポリシーでカバーされているデータとしてそのデータを認識していないかもしれません。ポリシーのトレーニングはこの決定の頻度を減少させますが、大規模に排除することはできません。
FEMAの事件は典型的な例を示しています:大量の申請、締切、強力な要約ツールへのアクセスに直面している契約者。ポリシー遵守には、AI支援よりも手動処理を選択する必要がありました。時間的プレッシャーの下で、ツールが勝ちました。
アプリケーション層での技術的コントロール
この失敗モードに対処する唯一のガバナンスアプローチは、ポリシー層ではなく技術層で機能します。Chrome拡張機能は、クリップボードの内容がウェブベースのAIインターフェース(ChatGPT、Gemini、Claude.ai、Perplexityなど)に到達する前にそれを intercept します。このインターセプトは自動的であり、ユーザーがポリシーを適用することを思い出すことに依存しません。
FEMAの契約者がケース管理システムから申請者の名前と住所をコピーしてChatGPTに貼り付けると、拡張機能はクリップボードの内容に含まれるPIIを検出し、それを匿名化し、匿名化されたバージョンを提出します。契約者は、提出前に何が置き換えられるかを示すプレビューのモーダルを確認します。AIは非識別データを受け取り、要約タスクを実行できます。申請者の名前、住所、健康データは決してChatGPTのサーバーに到達しません。
AIガバナンスの懸念がコーディングツール(Cursor、GitHub Copilot)に集中している組織にとって、MCPサーバーはアプリケーション層で同等のコントロールを提供します。AIモデルコンテキストに貼り付けられたコードはインターセプトされ、資格情報や独自の識別子はトークンに置き換えられ、AIは匿名化されたバージョンを受け取ります。ブラウザベースのAIとIDEベースのAIの両方のチャネルは、ユーザーの行動に依存せずに機能する技術的コントロールを通じて保護できます。
FEMAの契約者シナリオは、技術的コントロールが整っていれば異なる結果をもたらしたでしょう。契約者は申請を効率的に処理できたでしょう;申請者データは決してChatGPTに到達しなかったでしょう;調査は引き起こされなかったでしょう。ポリシートレーニングは事件を防ぎませんでした。技術的インターセプション層がそれを防いだでしょう。
出典: