Trois équipes d'ingénierie, trois incidents, un mois
En avril 2023, Samsung Semiconductor a divulgué trois incidents distincts au cours desquels des employés avaient transmis des données propriétaires à ChatGPT en l'espace d'un mois.
Les incidents n'étaient pas liés les uns aux autres. Ils impliquaient différents employés dans différents rôles, poursuivant différentes tâches, à des jours différents. Ils partageaient seulement deux caractéristiques : chaque employé a utilisé ChatGPT pour atteindre un objectif de travail légitime, et chacun a involontairement transmis des données que Samsung n'avait pas l'intention de partager avec l'infrastructure d'OpenAI.
Incident 1 : Un ingénieur logiciel déboguait du code lié à des équipements semi-conducteurs. Le débogage de systèmes complexes est un cas d'utilisation courant des outils d'IA — fournir du code à un modèle d'IA et lui demander d'identifier la source d'un comportement inattendu. L'ingénieur a collé du code source des systèmes d'équipements semi-conducteurs propriétaires de Samsung dans ChatGPT. Le code contenait des propriétés intellectuelles liées aux processus de fabrication de Samsung.
Incident 2 : Un employé préparait un résumé de réunion. La prise de notes assistée par IA et la synthèse de réunions sont devenues des outils de travail standard dans de nombreuses industries. L'employé a soumis des notes de réunion à ChatGPT pour les résumer. Ces notes de réunion contenaient des discussions internes confidentielles — stratégie commerciale, feuilles de route techniques et autres informations que Samsung considérait comme non publiques.
Incident 3 : Un troisième employé cherchait des suggestions d'optimisation pour une requête de base de données. L'optimisation de base de données est une tâche techniquement exigeante où l'assistance de l'IA apporte une valeur réelle. L'employé a fourni la structure de la base de données et la logique de requête à ChatGPT. La logique de requête contenait des références à des structures de données propriétaires et à la logique commerciale.
Pourquoi les employés l'ont fait
Aucun des trois employés de Samsung n'agissait de manière irresponsable selon leurs propres normes professionnelles. Ils utilisaient un outil d'IA pour des tâches pour lesquelles les outils d'IA sont conçus pour aider : débogage de code, synthèse de texte, optimisation technique.
L'élément manquant dans chaque cas était le frottement technique. Aucun système n'a intercepté la soumission avant qu'elle n'atteigne les serveurs d'OpenAI. Aucun contrôle n'a signalé les identifiants de code propriétaire avant qu'ils ne quittent le réseau de l'entreprise. Aucune couche architecturale ne se tenait entre le besoin légitime de travail de l'employé et l'infrastructure du fournisseur d'IA.
Les employés étaient rationnels. L'outil d'IA fournissait une assistance réelle pour des tâches de travail légitimes. L'avertissement de politique existait mais n'imposait aucune barrière technique. La conséquence de la non-conformité — une action disciplinaire potentielle pour un acte accidentel — était abstraite et éloignée par rapport au bénéfice immédiat de productivité de l'outil.
Le résultat : trois incidents en un mois, trois divulgations d'informations propriétaires, et une crise d'entreprise qui a déclenché une vague mondiale d'interdictions d'IA dans les entreprises.
La réponse de l'industrie
La réponse interne de Samsung a été rapide : l'accès à ChatGPT a été restreint pour les appareils d'entreprise. La divulgation a déclenché une réaction plus large de l'industrie qui a révélé à quel point la condition sous-jacente était répandue.
Les organisations qui ont annoncé des interdictions ou des restrictions sur les outils d'IA suite à la divulgation de Samsung comprenaient Bank of America, Citigroup, Goldman Sachs, JPMorgan Chase, Apple et Verizon. La réponse du secteur financier a été particulièrement complète — plusieurs grandes institutions ont simultanément conclu que le profil de risque des outils d'IA sans contrôles techniques était incompatible avec leurs obligations de conformité.
Chaque organisation a atteint la même conclusion : les employés ne sont pas le problème, et les avertissements de politique ne sont pas des contrôles suffisants. Les données quittaient leurs réseaux car aucune barrière technique ne les empêchait, et la politique seule ne peut pas créer une barrière technique.
Le taux de contournement de 71,6%
L'approche d'interdiction a un taux d'échec documenté. La recherche de LayerX de 2025 a révélé que 71,6 % des employés soumis à des interdictions d'IA en entreprise continuaient à utiliser des outils d'IA via des comptes ou des appareils personnels.
Le taux de contournement reflète un comportement basique : lorsqu'un outil fournit une véritable valeur de productivité, les utilisateurs trouvent des solutions de contournement plutôt que d'abandonner définitivement l'outil. Un employé qui découvre que l'assistance de l'IA accélère considérablement sa production de travail ne cessera pas d'utiliser ces outils parce que la politique d'entreprise les interdit sur les appareils d'entreprise. Ils utiliseront des comptes personnels sur des appareils personnels par des canaux que l'équipe de sécurité ne peut pas voir.
La conséquence pratique du taux de contournement de 71,6 % est que l'interdiction d'IA atteint le pire résultat possible : les données d'entreprise atteignent les fournisseurs d'IA par des canaux sans aucun contrôle de sécurité. Au moins, l'accès aux appareils d'entreprise pourrait théoriquement être surveillé. L'utilisation de comptes personnels est totalement invisible pour l'équipe de sécurité.
Les trois incidents de Samsung se sont produits sur des appareils d'entreprise via un accès d'entreprise. Les employés qui contournent l'interdiction font la même chose — fournir des données liées au travail à des modèles d'IA — par des canaux sans aucune supervision d'entreprise.
Le contrôle technique qui aborde la cause profonde
Les incidents de Samsung n'ont pas été causés par la négligence des employés. Ils ont été causés par une architecture qui ne fournissait aucune couche d'interception entre l'utilisation de l'IA par les employés et l'infrastructure externe d'IA.
L'architecture du Protocole de Contexte de Modèle (MCP) fournit un proxy transparent entre les clients d'IA et les API de modèles d'IA. Pour les développeurs utilisant Claude Desktop ou Cursor IDE — les outils principaux pour le type de débogage de code qui a causé le premier incident de Samsung — le serveur MCP se trouve dans le chemin du protocole.
Avant que tout texte n'atteigne le modèle d'IA, le serveur MCP le traite via un moteur d'anonymisation. Le code source est analysé pour des identifiants propriétaires : noms de fonctions, noms de variables, points de terminaison API internes, détails de schéma de base de données, valeurs de configuration. Ceux-ci sont remplacés par des jetons structurés avant que le code n'atteigne le modèle d'IA.
Un développeur demandant à Claude de déboguer du code semi-conducteur propriétaire de Samsung via un serveur MCP équipé d'anonymisation transmettrait du code dans lequel les identifiants propriétaires ont été remplacés par des jetons. Le modèle d'IA aide avec la tâche de débogage en utilisant le code anonymisé — ce qui est suffisant pour l'analyse de code. Les spécificités propriétaires n'atteignent jamais les serveurs du fournisseur d'IA.
L'incident 1 devient techniquement impossible. Le code source quitte le réseau sous forme anonymisée. L'IA fournit l'assistance de débogage dont l'ingénieur avait besoin. La propriété intellectuelle de Samsung reste sous le contrôle de Samsung.
La même architecture s'applique à l'incident 2 (synthèse de notes de réunion via une IA basée sur un navigateur, abordée par l'extension Chrome) et à l'incident 3 (optimisation de requête de base de données via n'importe quelle interface de codage d'IA, abordée par l'anonymisation MCP).
Les incidents de Samsung étaient un aperçu d'un problème systématique. Les contrôles techniques qui abordent la cause profonde existent désormais. La question est de savoir si les entreprises vont les déployer ou continuer à s'appuyer sur des interdictions que 71,6 % de leurs employés contournent déjà.
Sources :