ブログに戻るAIセキュリティ

サムスンが1か月でChatGPTに独自のソースコードを3回流出させた理由

2023年4月、3つの異なるサムスンのエンジニアリングチームが独自のコードと機密データをChatGPTに貼り付けました。各事件は同じ技術的ギャップの異なる側面を明らかにし、業界全体でのAI禁止の波を引き起こしました。

March 13, 20269 分で読めます
Samsung ChatGPT leaksource code protectionenterprise AI controlsinsider data leakageMCP Server anonymization

3つのエンジニアリングチーム、3つの事件、1か月

2023年4月、サムスン半導体は、従業員が1か月以内にChatGPTに独自のデータを送信した3つの異なる事件を開示しました。

これらの事件は互いに関連していませんでした。異なる役割の異なる従業員が、異なるタスクを追求し、異なる日に発生しました。彼らには2つの共通点がありました:各従業員はChatGPTを使用して正当な業務目標を達成し、各々がサムスンがOpenAIのインフラストラクチャーと共有する意図のなかったデータを誤って送信しました。

事件1:あるソフトウェアエンジニアが半導体機器に関連するコードのデバッグを行っていました。複雑なシステムのデバッグはAIツールの一般的な使用ケースであり、AIモデルにコードを提供し、予期しない動作の原因を特定するように依頼します。エンジニアはサムスンの独自の半導体機器システムからソースコードをChatGPTに貼り付けました。このコードにはサムスンの製造プロセスに関連する知的財産が含まれていました。

事件2:ある従業員が会議の要約を準備していました。AI支援のメモ取りや会議の要約は、業界全体で標準的なワークフローツールとなっています。従業員は会議のメモをChatGPTに要約するために提出しました。その会議のメモには、機密の内部議論—ビジネス戦略、技術的ロードマップ、サムスンが非公開と見なすその他の情報—が含まれていました。

事件3:3人目の従業員がデータベースクエリの最適化提案を求めました。データベースの最適化は技術的に要求されるタスクであり、AIの支援が本当に価値を提供します。従業員はデータベースの構造とクエリロジックをChatGPTに提供しました。クエリロジックには独自のデータ構造やビジネスロジックへの参照が含まれていました。

従業員がそうした理由

3人のサムスンの従業員はいずれも、自分たちの専門的な基準に照らして無責任な行動をとっていたわけではありません。彼らはAIツールが支援するために設計されたタスク—コードデバッグ、テキスト要約、技術的最適化—にAIツールを使用していました。

各ケースで欠けていた要素は技術的摩擦でした。送信がOpenAIのサーバーに到達する前に、どのシステムもその送信を傍受しませんでした。企業ネットワークを離れる前に独自のコード識別子をフラグする制御もありませんでした。従業員の正当な業務ニーズとAIプロバイダーのインフラストラクチャーの間に立つアーキテクチャ層も存在しませんでした。

従業員は合理的でした。AIツールは正当な業務タスクに対して本当に支援を提供していました。ポリシーの警告は存在しましたが、技術的な障壁を課すことはありませんでした。非遵守の結果—偶発的な行為に対する潜在的な懲戒処分—は、ツールの即時の生産性向上の利点に比べて抽象的で遠いものでした。

その結果:1か月で3つの事件、3つの独自情報の開示、そして企業AI禁止のグローバルな波を引き起こす企業危機が発生しました。

業界の反応

サムスンの内部反応は迅速でした:企業デバイスのChatGPTアクセスが制限されました。この開示は、基盤となる状況がどれほど広範囲にわたるかを明らかにする、より広範な業界の反応を引き起こしました。

サムスンの開示を受けてAIツールの禁止や制限を発表した組織には、バンク・オブ・アメリカ、シティグループ、ゴールドマン・サックス、JPモルガン・チェース、アップル、ベライゾンが含まれました。金融セクターの反応は特に包括的であり、複数の主要機関が同時に、技術的制御のないAIツールのリスクプロファイルがコンプライアンス義務と互換性がないと結論づけました。

各組織は同じ結論に達しました:従業員が問題ではなく、ポリシーの警告は十分な制御ではない。データは、技術的障壁がそれを防ぐことなくネットワークを離れていました。ポリシーだけでは技術的障壁を作ることはできません。

71.6%のバイパス率

禁止アプローチには文書化された失敗率があります。2025年のLayerXの研究によると、**企業AI禁止の対象となった従業員の71.6%**が個人アカウントやデバイスを通じてAIツールを使用し続けていました。

バイパス率は基本的な行動を反映しています:ツールが本当に生産性の価値を提供する場合、ユーザーはツールを永久に放棄するのではなく、回避策を見つけます。AI支援が業務の成果を大幅に加速することを発見した従業員は、企業ポリシーが企業デバイスでの使用を禁止しているからといって、そのツールの使用をやめることはありません。彼らは、セキュリティチームが見えないチャネルを通じて個人アカウントを個人デバイスで使用します。

71.6%のバイパス率の実際の結果は、AI禁止が最悪の結果を達成することです:企業データが全くセキュリティ制御のないチャネルを通じてAIプロバイダーに到達します。少なくとも企業デバイスへのアクセスは理論的には監視できました。個人アカウントの使用は、セキュリティチームには完全に見えません。

サムスンの3つの事件は、企業デバイスを通じて企業アクセスで発生しました。禁止をバイパスする従業員も同じことをしています—業務関連のデータをAIモデルに提供することを—企業の監視がないチャネルを通じて。

根本原因に対処する技術的制御

サムスンの事件は従業員の不注意によって引き起こされたものではありませんでした。従業員のAI使用と外部AIインフラストラクチャーの間に傍受層を提供しないアーキテクチャによって引き起こされました。

モデルコンテキストプロトコル(MCP)アーキテクチャは、AIクライアントとAIモデルAPIの間に透明なプロキシを提供します。Claude DesktopやCursor IDEを使用する開発者—サムスンの最初の事件を引き起こしたタイプのコードデバッグのための主要ツール—にとって、MCPサーバーはプロトコルパスに配置されます。

テキストがAIモデルに到達する前に、MCPサーバーはそれを匿名化エンジンを通じて処理します。ソースコードは独自の識別子—関数名、変数名、内部APIエンドポイント、データベーススキーマの詳細、設定値—を分析されます。これらは、コードがAIモデルに到達する前に構造化トークンに置き換えられます。

開発者が匿名化機能を備えたMCPサーバーを通じてサムスンの独自の半導体コードをデバッグするようClaudeに依頼すると、独自の識別子がトークンに置き換えられたコードが送信されます。AIモデルは匿名化されたコードを使用してデバッグタスクを支援します—これはコード分析に十分です。独自の詳細はAIプロバイダーのサーバーには到達しません。

事件1は技術的に不可能になります。ソースコードは匿名化された形でネットワークを離れます。AIはエンジニアが必要としたデバッグ支援を提供します。サムスンの知的財産はサムスンの管理下に留まります。

同じアーキテクチャは、事件2(ブラウザベースのAIによる会議メモの要約、Chrome拡張機能によって対処)および事件3(任意のAIコーディングインターフェースによるデータベースクエリの最適化、MCP匿名化によって対処)にも適用されます。

サムスンの事件は、体系的な問題の予兆でした。根本原因に対処する技術的制御は現在存在します。問題は、企業がそれらを展開するか、すでに71.6%の従業員がバイパスしている禁止に依存し続けるかです。

出典:

データを保護する準備はできましたか?

48言語で285以上のエンティティタイプを使用してPIIを匿名化し始めましょう。