AIデータ漏洩危機
2025年10月、LayerX SecurityはすべてのCISOを警戒させるべき調査結果を発表しました: 従業員の77%がデータをGenAIツールに貼り付けている。その活動の82%は管理されていない個人アカウントから来ています。
さらに懸念すべきは、GenAIは現在、すべての企業データ流出の32%を占めていることです—これにより、企業内での不正なデータ移動の第1ベクターとなっています。
これは未来の問題ではありません。これは現在、あなたの組織で毎日起こっています。
数字は驚異的
| 調査結果 | データ | 出典 |
|---|---|---|
| AIにデータを貼り付ける従業員 | 77% | LayerX 2025 |
| AIツールによるデータ流出 | 32% | LayerX 2025 |
| 管理されていないアカウントからのChatGPT使用 | 67% | LayerX 2025 |
| 個人アカウントからの毎日の貼り付け | 従業員あたり14回 | LayerX 2025 |
| 機密データを含む貼り付け | 1日あたり3回以上 | LayerX 2025 |
平均して、従業員は個人アカウントを通じて1日あたり14回の貼り付けを行い、そのうち少なくとも3回は機密データを含んでいます。従来のDLPツールは、ファイル中心の監視に基づいて構築されているため、この活動を検出することすらできません。
AI禁止が機能しない理由
Samsungは従業員がソースコードを漏洩した後、ChatGPTの使用を禁止しようとしましたが、効果はありませんでした。
現実は、AIツールが従業員の生産性を大幅に向上させるということです。研究によると、AIアシスタントを使用する開発者は、タスクを55%速く完了します。AIを禁止すると、従業員は次のいずれかを行います:
- 個人アカウントを通じて使用する(67%がすでに行っています)
- 生産性を失い、フラストレーションを感じる
- AIを受け入れる競合他社に移る
答えは禁止ではなく、保護です。
90万人ユーザーのChrome拡張機能の侵害
2025年12月、OX Securityは90万人以上のユーザーからChatGPTとDeepSeekの会話を盗んだ2つの悪意のあるChrome拡張機能を発見しました。
これらの拡張機能の1つは、Googleの「注目の」バッジを持っていました—信頼性の印とされるものです。
拡張機能は次のように機能しました:
- チャット会話をリアルタイムで傍受
- 被害者のマシンにデータをローカルに保存
- 30分ごとにコマンド&コントロールサーバーにバッチを流出
さらに悪いことに、別の調査では「無料VPN」拡張機能が800万回以上のダウンロードを持ち、2025年7月以来AIの会話をキャプチャしていたことが判明しました。
解決策: 提出前に傍受
機密データを保護しながらAIを安全に使用する唯一の方法は、AIモデルに到達する前にPIIを匿名化することです。
これは、anonym.legalのChrome拡張機能とMCPサーバーが行うことです:
Chrome拡張機能
- ChatGPT、Claude、またはGeminiに送信する前にテキストを傍受
- PII(名前、メール、SSNなど)を自動的に検出して匿名化
- 機密データをトークンに置き換え: "John Smith" → "[PERSON_1]"
- AIの応答を非匿名化して元の名前を表示
MCPサーバー(開発者向け)
- Claude Desktop、Cursor、VS Codeと統合
- 透過的なプロキシ—AIと通常通りに対話
- プロンプトがモデルに到達する前にPIIが匿名化
- 既存のワークフローで機能
保護されるもの
両方のツールは、48言語で285以上のエンティティタイプを検出して匿名化します:
- 個人情報: 名前、メールアドレス、電話番号、生年月日
- 財務情報: クレジットカード番号、銀行口座、IBAN
- 政府情報: SSN、パスポート番号、運転免許証
- 医療情報: 医療記録番号、患者ID
- 企業情報: 従業員ID、内部アカウント番号
たとえあなたのAIチャット履歴が侵害されても(あの90万人のユーザーのように)、回復可能なPIIは存在せず、匿名化されたトークンのみが残ります。
実装: 5分で保護
Chrome拡張機能
- anonym.legal/features/chrome-extensionからダウンロード
- anonym.legalアカウントでログイン
- ChatGPT、Claude、またはGeminiにアクセス
- 通常通りに入力—PIIは自動的に検出され、送信前に匿名化されます
MCPサーバー(Claude Desktop用)
claude_desktop_config.jsonに追加:
{
"mcpServers": {
"anonym-legal": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-server-anonym-legal"],
"env": {
"ANONYM_API_KEY": "your-api-key"
}
}
}
}
不作為のコスト
リスクを考慮してください:
- 分析のためにAIに貼り付けられた財務データ
- サポートクエリで使用される顧客情報
- デバッグのために共有されたソースコード
- AIによって要約された法的文書
- インサイトのために処理された医療記録
単一のデータ侵害は平均して488万ドルのコストがかかります(IBM 2024)。平均的な医療データ侵害のコストは現在742万ドルです(IBM 2025)—2024年の977万ドルから減少しましたが、他のすべての業界をはるかに上回っています。
Chrome拡張機能は無料です。MCPサーバーは、月額€15からのProプランに含まれています。
結論
AIはここに留まります。あなたの従業員はすでにそれを使用しています—問題は彼らが安全に行っているかどうかです。
LayerXの調査結果は明確です: 従来のセキュリティアプローチはAIデータ流出に盲目です。AIモデルに到達する前にデータを保護するために特別に設計されたツールが必要です。
今日、あなたの組織を保護し始めましょう:
- Chrome拡張機能をインストール(無料)
- MCPサーバーを設定(Proプラン)
- すべての機能を表示
出典: