Volver al BlogSeguridad de IA

Cómo Samsung Perdió Código Fuente Propietario a...

Tres equipos de ingeniería de Samsung pegaron código propietario y datos confidenciales en ChatGPT en abril de 2023.

March 13, 20269 min de lectura
Samsung ChatGPT leaksource code protectionenterprise AI controlsinsider data leakageMCP Server anonymization

Tres Equipos de Ingeniería, Tres Incidentes, Un Mes

En abril de 2023, Samsung Semiconductor divulgó tres incidentes separados en los que empleados habían transmitido datos propietarios a ChatGPT dentro de un solo mes.

Los incidentes no estaban relacionados entre sí. Involucraron a diferentes empleados en diferentes roles, persiguiendo diferentes tareas, en diferentes días. Compartieron solo dos características: cada empleado usó ChatGPT para lograr un objetivo de trabajo legítimo, y cada uno transmitió inadvertidamente datos que Samsung no había pretendido compartir con la infraestructura de OpenAI.

Incidente 1: Un ingeniero de software estaba depurando código relacionado con equipos semiconductores. La depuración de sistemas complejos es un caso de uso común de herramientas de IA: proporcionar código a un modelo de IA y pedirle que identifique la fuente de un comportamiento inesperado. El ingeniero pegó código fuente de los sistemas de equipos semiconductores propietarios de Samsung en ChatGPT. El código contenía propiedad intelectual relacionada con los procesos de fabricación de Samsung.

Incidente 2: Un empleado estaba preparando un resumen de reunión. La toma de notas asistida por IA y la resumición de reuniones se han convertido en herramientas estándar de flujo de trabajo en diversas industrias. El empleado envió notas de la reunión a ChatGPT para su resumen. Esas notas de la reunión contenían discusiones internas confidenciales: estrategia empresarial, hojas de ruta técnicas y otra información que Samsung consideraba no pública.

Incidente 3: Un tercer empleado buscó sugerencias de optimización para una consulta de base de datos. La optimización de bases de datos es una tarea técnicamente exigente donde la asistencia de IA proporciona un valor genuino. El empleado proporcionó la estructura de la base de datos y la lógica de consulta a ChatGPT. La lógica de consulta contenía referencias a estructuras de datos propietarias y lógica empresarial.

Por Qué Lo Hicieron los Empleados

Ninguno de los tres empleados de Samsung actuó de manera irresponsable según sus propios estándares profesionales. Estaban utilizando una herramienta de IA para tareas para las que están diseñadas las herramientas de IA: depuración de código, resumición de texto, optimización técnica.

El elemento que faltaba en cada caso era la fricción técnica. Ningún sistema interceptó la presentación antes de que llegara a los servidores de OpenAI. Ningún control marcó identificadores de código propietario antes de que salieran de la red corporativa. Ninguna capa arquitectónica se interpuso entre la necesidad legítima de trabajo del empleado y la infraestructura del proveedor de IA.

Los empleados eran racionales. La herramienta de IA proporcionó asistencia genuina con tareas de trabajo legítimas. La advertencia de política existía pero no impuso ninguna barrera técnica. La consecuencia de la falta de cumplimiento —una posible acción disciplinaria por un acto accidental— era abstracta y remota en comparación con el beneficio inmediato de productividad de la herramienta.

El resultado: tres incidentes en un mes, tres divulgaciones de información propietaria y una crisis corporativa que desencadenó una ola global de prohibiciones de IA en empresas.

La Respuesta de la Industria

La respuesta interna de Samsung fue rápida: se restringió el acceso a ChatGPT para dispositivos corporativos. La divulgación desencadenó una reacción más amplia en la industria que reveló cuán extendida estaba la condición subyacente.

Las organizaciones que anunciaron prohibiciones o restricciones de herramientas de IA tras la divulgación de Samsung incluyeron Bank of America, Citigroup, Goldman Sachs, JPMorgan Chase, Apple y Verizon. La respuesta del sector financiero fue particularmente completa: múltiples instituciones importantes concluyeron simultáneamente que el perfil de riesgo de las herramientas de IA sin controles técnicos era incompatible con sus obligaciones de cumplimiento.

Cada organización llegó a la misma conclusión: los empleados no son el problema, y las advertencias de política no son controles suficientes. Los datos estaban saliendo de sus redes porque no había ninguna barrera técnica que lo impidiera, y la política por sí sola no puede crear una barrera técnica.

La Tasa de Evasión del 71.6%

El enfoque de prohibición tiene una tasa de fracaso documentada. La investigación de LayerX de 2025 encontró que el 71.6% de los empleados sujetos a prohibiciones de IA en empresas continuaron utilizando herramientas de IA a través de cuentas o dispositivos personales.

La tasa de evasión refleja un comportamiento básico: cuando una herramienta proporciona un valor genuino de productividad, los usuarios encuentran soluciones alternativas en lugar de abandonar permanentemente la herramienta. Un empleado que descubre que la asistencia de IA acelera sustancialmente su producción de trabajo no dejará de usar esas herramientas porque la política corporativa lo prohíbe en dispositivos corporativos. Usarán cuentas personales en dispositivos personales a través de canales que el equipo de seguridad no puede ver.

La consecuencia práctica de la tasa de evasión del 71.6% es que la prohibición de IA logra el peor resultado posible: los datos corporativos llegan a los proveedores de IA a través de canales sin controles de seguridad. Al menos el acceso a dispositivos corporativos podría teóricamente ser monitoreado. El uso de cuentas personales es completamente invisible para el equipo de seguridad.

Los tres incidentes de Samsung ocurrieron en dispositivos corporativos a través de acceso corporativo. Los empleados que evaden la prohibición están haciendo lo mismo: proporcionando datos relacionados con el trabajo a modelos de IA a través de canales sin supervisión empresarial.

El Control Técnico que Aborda la Causa Raíz

Los incidentes de Samsung no fueron causados por la negligencia de los empleados. Fueron causados por una arquitectura que no proporcionó ninguna capa de interceptación entre el uso de IA por parte de los empleados y la infraestructura de IA externa.

La arquitectura del Protocolo de Contexto del Modelo (MCP) proporciona un proxy transparente entre los clientes de IA y las API de modelos de IA. Para los desarrolladores que utilizan Claude Desktop o Cursor IDE —las herramientas principales para el tipo de depuración de código que causó el primer incidente de Samsung— el Servidor MCP se sitúa en la ruta del protocolo.

Antes de que cualquier texto llegue al modelo de IA, el Servidor MCP lo procesa a través de un motor de anonimización. El código fuente se analiza en busca de identificadores propietarios: nombres de funciones, nombres de variables, puntos finales de API internos, detalles del esquema de la base de datos, valores de configuración. Estos se reemplazan con tokens estructurados antes de que el código llegue al modelo de IA.

Un desarrollador que le pida a Claude depurar código propietario de semiconductores de Samsung a través de un Servidor MCP equipado con anonimización transmitiría código en el que los identificadores propietarios han sido reemplazados por tokens. El modelo de IA asiste con la tarea de depuración utilizando el código anonimizado, lo cual es suficiente para el análisis de código. Las especificidades propietarias nunca llegan a los servidores del proveedor de IA.

El Incidente 1 se vuelve técnicamente imposible. El código fuente sale de la red en forma anonimizada. La IA proporciona la asistencia de depuración que el ingeniero necesitaba. La propiedad intelectual de Samsung permanece bajo el control de Samsung.

La misma arquitectura se aplica al Incidente 2 (resumición de notas de reunión a través de IA basada en navegador, abordada por la Extensión de Chrome) y al Incidente 3 (optimización de consultas de base de datos a través de cualquier interfaz de codificación de IA, abordada por la anonimización MCP).

Los incidentes de Samsung fueron un adelanto de un problema sistemático. Los controles técnicos que abordan la causa raíz ahora existen. La pregunta es si las empresas los implementarán o continuarán confiando en prohibiciones que el 71.6% de sus empleados ya están eludiendo.

Fuentes:

¿Listo para proteger sus datos?

Comience a anonimizar PII con más de 285 tipos de entidades en 48 idiomas.