デイリー露出の数学
Cyberhavenの研究によると、企業の従業員は1ユーザーあたり1日平均3.8件の機密データをChatGPTにペーストしています。100人のカスタマーサポートチームの場合、この数字は毎日ChatGPTに入る機密データの380件のインスタンスに相当します — 各インスタンスは、個人データが「適切で、関連性があり、必要な範囲に限定される」ことを要求する第5条1項(c)に基づくGDPRデータ最小化違反を構成する可能性があります。
この3.8という数字は、ポリシーを無視している従業員の数ではありません。それは、エージェントが顧客の対応をドラフトするために顧客の通信をコピーし、共感的なフォローアップを生成するために苦情のテキストをペーストし、コンテキストに応じた提案を得るためにアカウントの詳細を含めるという、通常のワークフロー行動を反映しています。各ペーストは、偶然にも個人データを含む正当な生産性の行動です。従業員は顧客データを露出させることを決定したわけではなく、露出はAIツールを効率的に使用することを決定した結果の副産物でした。
2024年のEU監査では、**ChatGPTユーザーデータの63%**に個人を特定できる情報が含まれていることがわかりました。22%のユーザーのみが、ChatGPTの設定を通じてデータ収集からオプトアウトできることを知っていました。この組み合わせ — ほとんどのデータにPIIが含まれ、ほとんどのユーザーがコントロールを認識していない — は、技術的コントロールが実装されていない組織全体での体系的なデイリー露出を生み出します。
なぜこの行動は訓練で解消できないのか
コピー&ペーストのワークフローは非常に習慣的です。ユーザーは数十年にわたり、基本的なコンピュータのインタラクションとしてテキストをコピー&ペーストしてきました。ペーストされたテキストの宛先としてAIチャットボットが追加されたことは、基礎的な行動を変えることはなく、確立されたパターンを新しいターゲットに拡張しました。
「顧客のPIIをChatGPTにペーストしないでください」というポリシー訓練は、従業員に習慣的な行動に「このテキストにはPIIが含まれていますか?」という分類決定を挿入させる必要があります。この訓練効果は、行動が習慣に戻るにつれて減衰します。各個別のペースト決定は低リスクのマイクロ決定であり、380件のデイリー決定の累積効果は、ポリシー訓練が信頼性をもって対処できない体系的なコンプライアンスリスクとなります。
技術的解決策は、習慣が形成される層で機能します:ペーストアクション自体です。Chrome拡張機能は、ペーストの瞬間にクリップボードの内容を傍受し、内容が入力フィールドに到達する前に行います。この傍受はポリシー施行の障壁ではなく(ユーザーは常にオーバーライドできます) — それは透明性ツールです。プレビューのモーダルは、従業員に何が検出されたかを示し、進行する前に分類決定を可視化する一瞬を提供します。
ドイツのeコマース企業のサポートチームリーダーが顧客の苦情に対する応答をドラフトする場合:ワークフローは「苦情をコピーし、ChatGPTにペーストし、応答を生成する」のままです。Chrome拡張機能は、エージェントが名前、住所、注文番号が検出され、提出前に匿名化されることを確認する2秒のインタールードを追加します。エージェントは進むをクリックします。ワークフローは続きます。コンプライアンス違反は発生しません。
出典: