Volver al BlogSeguridad de IA

JPMorgan, Goldman Sachs, Apple: Por qué las...

El 27.4% del contenido de chatbots de IA empresarial contiene datos sensibles, un aumento del 156% interanual.

March 9, 20269 min de lectura
enterprise AI securityChatGPT banAI data controlsshadow AI

La Ola de Prohibiciones de IA Empresarial

En los últimos dos años, una parte significativa de las empresas más grandes del mundo prohibió herramientas de IA públicas:

JPMorgan Chase, Deutsche Bank, Wells Fargo, Goldman Sachs, Bank of America, Apple y Verizon están entre las organizaciones que implementaron restricciones en el uso de ChatGPT y herramientas similares por parte de los empleados.

El desencadenante fue Samsung. En 2023, Samsung levantó una prohibición interna de ChatGPT — y en un mes, ocurrieron tres incidentes separados de filtración de código fuente. Los empleados pegaron código de base de datos de semiconductores, código de programas de detección de defectos y notas de reuniones internas en ChatGPT para obtener ayuda. Una vez enviado, los datos se almacenaron en los servidores de OpenAI. Samsung no tenía un mecanismo para recuperarlos o eliminarlos. La prohibición fue restablecida.

El caso de Samsung se convirtió en el evento de referencia para los equipos de seguridad en todas partes: si una empresa de tecnología sofisticada con equipos de seguridad dedicados no puede evitar que los empleados filtren propiedad intelectual a herramientas de IA, la única opción es bloquear las herramientas por completo.

O al menos así se razonó.

Por Qué Fallaron las Prohibiciones

El 27.4% de todo el contenido alimentado a chatbots de IA empresarial contiene información sensible — un aumento del 156% interanual (Zscaler 2025 Data@Risk Report).

Este número refleja lo que ocurrió después de las prohibiciones: los empleados siguieron usando herramientas de IA. Simplemente cambiaron a cuentas no corporativas.

El 71.6% del acceso a la IA empresarial ahora ocurre a través de cuentas no corporativas eludiendo los controles DLP corporativos (LayerX 2025 Enterprise GenAI Security Report).

La prohibición no detuvo el uso de IA. Lo empujó a la clandestinidad, donde es menos visible, menos controlado y menos auditable. Un desarrollador que estaba usando ChatGPT a través de la cuenta corporativa — generando registros, activando alertas DLP, al menos visible para las operaciones de seguridad — cambió a usarlo a través de su cuenta personal en su dispositivo corporativo. Exactamente los mismos datos. Sin visibilidad alguna.

Este es el modo de falla fundamental de las prohibiciones de herramientas en una era donde el mismo servicio está disponible a través de cuentas personales: prohibir la cuenta corporativa no prohíbe el comportamiento.

El Informe Zscaler Data@Risk: Qué Hay Realmente en Esos Prompts

El Zscaler 2025 Data@Risk Report proporciona la imagen más detallada disponible de lo que los empleados están enviando realmente a los chatbots de IA empresarial. La cifra del 27.4% de datos sensibles se desglosa en categorías:

  • Información comercial propietaria y secretos comerciales
  • Datos de clientes (nombres, información de contacto, detalles de cuentas)
  • Información personal de empleados
  • Código fuente (incluyendo credenciales incrustadas)
  • Datos financieros (ganancias no publicadas, términos de acuerdos, valores de contratos)
  • Comunicaciones legales e información privilegiada

El aumento del 156% interanual en datos sensibles en los prompts de IA (Zscaler 2025) no refleja principalmente que los empleados se vuelvan menos cuidadosos. Refleja el crecimiento de la adopción de herramientas de IA en sí. A medida que más empleados utilizan herramientas de IA para más tareas, el volumen absoluto de datos sensibles que ingresan a esas herramientas crece proporcionalmente.

El Costo de Productividad de las Restricciones de IA

El caso de seguridad para prohibir la IA es directo. El caso de productividad en contra es igualmente claro.

La investigación encuentra consistentemente que la asistencia de IA produce ganancias de productividad sustanciales para los trabajadores del conocimiento:

  • Los desarrolladores que utilizan asistentes de codificación de IA completan tareas más rápido
  • Los profesionales legales que utilizan IA para la revisión de documentos procesan más documentos por hora
  • Los equipos de soporte al cliente que utilizan IA para redactar respuestas manejan más tickets

Cuando las empresas prohíben el acceso a la IA para desarrolladores que tienen competidores usándola libremente, la desventaja competitiva es tangible. Cuando los analistas deben trabajar sin la asistencia de IA que sus pares en empresas competidoras utilizan rutinariamente, la brecha de producción se acumula con el tiempo.

La tasa de elusión de cuentas personales del 71.6% refleja no solo la violación individual de reglas, sino un comportamiento económico racional: la ganancia de productividad de la IA es lo suficientemente grande como para que los empleados acepten el riesgo de violar la política en lugar de abandonar la herramienta.

La Alternativa Técnica a la Prohibición

La preocupación de seguridad subyacente a las prohibiciones de IA es legítima: el flujo de datos sensibles hacia proveedores de IA externos crea un riesgo real. La solución es eliminar ese riesgo técnicamente — no aceptar la pérdida de productividad a cambio de una prohibición que los empleados eludirán de todos modos.

El enfoque técnico: anonimizar los datos sensibles antes de que lleguen al modelo de IA.

Considere al desarrollador que pega una consulta de base de datos que contiene identificadores de clientes en Claude para obtener ayuda con la optimización. Con controles técnicos en su lugar:

  1. El desarrollador pega la consulta (que contiene IDs de clientes, números de cuentas, información personal identificable)
  2. La capa de anonimización intercepta antes de la transmisión
  3. Los IDs de clientes se convierten en "[ID_1]", los números de cuentas se convierten en "[ACCT_1]", los nombres se convierten en "[CUSTOMER_1]"
  4. La consulta anonimizada llega a Claude
  5. La respuesta de Claude (usando los mismos tokens) es devuelta
  6. El desarrollador ve la respuesta con tokens — lo cual es suficiente para entender la sugerencia de optimización

Claude no procesó ningún dato real de clientes. La información sensible nunca salió de la red corporativa. El desarrollador recibió la asistencia técnica que necesitaba. El equipo de seguridad no tiene nada que investigar.

La Arquitectura del Servidor MCP para Desarrolladores

Para los desarrolladores que utilizan Claude Desktop o Cursor IDE — las principales herramientas de codificación de IA — el Protocolo de Contexto del Modelo (MCP) proporciona una arquitectura de proxy transparente.

El Servidor MCP de anonym.legal se sitúa entre el cliente de IA del desarrollador y la API del modelo de IA. Todo el texto transmitido a través del protocolo MCP — incluyendo contenidos de archivos, fragmentos de código, mensajes de error, archivos de configuración e instrucciones en lenguaje natural — pasa a través del motor de anonimización antes de llegar al modelo de IA.

Desde la perspectiva del desarrollador, están usando Claude o Cursor normalmente. La anonimización es invisible.

Desde la perspectiva del equipo de seguridad, ningún código propietario, credenciales o datos de clientes sale de la red en forma identificable. El modelo de IA procesa versiones anonimizadas; las respuestas son automáticamente desanonimizadas para el desarrollador.

Esta arquitectura aborda directamente el problema de Samsung: los empleados que pegaron código fuente en ChatGPT habrían estado enviando código anonimizados, del cual los detalles del algoritmo propietario se habían reemplazado por tokens antes de la transmisión.

La Arquitectura de la Extensión de Chrome para IA Basada en Navegador

El Servidor MCP aborda el uso de IA integrada en IDE. El uso de IA basado en navegador — Claude.ai, ChatGPT, Gemini — requiere una capa técnica diferente.

La Extensión de Chrome intercepta texto antes de que se envíe al servicio de IA a través de la interfaz del navegador. Se aplica el mismo motor de anonimización: nombres, identificadores de empresa, secretos de código fuente, cifras financieras y otro contenido sensible se reemplazan por tokens antes de que el prompt llegue a los servidores del proveedor de IA.

La combinación de Servidor MCP (IDE) + Extensión de Chrome (navegador) cubre todo el espectro de puntos de contacto de IA en un entorno empresarial.

Construyendo el Caso de Negocio

Para los CISOs que proponen este enfoque a sus equipos ejecutivos, el caso de negocio tiene tres componentes:

1. Seguridad equivalente a una prohibición — En términos de lo que realmente llega a los proveedores de IA externos, los prompts anonimizados no contienen información sensible recuperable. Una violación de los sistemas del proveedor de IA no produciría nada de valor respecto a los clientes, propiedad intelectual u operaciones de la organización.

2. Cero sacrificio de productividad — Los desarrolladores, analistas y trabajadores del conocimiento continúan usando herramientas de IA normalmente. La anonimización es transparente. La calidad de salida no cambia porque los modelos de IA funcionan igual de efectivamente con contenido seudonimizado.

3. Elimina el problema de elusión — La tasa de elusión de cuentas personales del 71.6% refleja a los empleados eligiendo productividad sobre cumplimiento de políticas. Cuando los empleados pueden usar herramientas de IA a través de cuentas corporativas sin riesgo, la motivación para eludir desaparece. Los equipos de seguridad recuperan visibilidad sobre el uso de IA.

El Manual Posterior a la Prohibición

Para las empresas que actualmente tienen prohibiciones de IA en vigor y están reconsiderando, el manual de transición:

Fase 1 (Semanas 1-2): Desplegar la Extensión de Chrome a través de la política de Chrome Enterprise a todos los dispositivos corporativos. Esto proporciona inmediatamente interceptación de PII a nivel de navegador para los empleados que ya estaban eludiendo restricciones a través de cuentas personales.

Fase 2 (Semanas 3-4): Desplegar el Servidor MCP a estaciones de trabajo de desarrolladores. Configurar patrones de entidad personalizados para identificadores sensibles específicos de la organización (códigos de productos internos, formatos de cuentas de clientes, términos técnicos propietarios).

Fase 3 (Mes 2): Levantar la prohibición de uso de IA para cuentas corporativas. Los empleados ahora pueden usar herramientas de IA a través de cuentas corporativas con controles técnicos en su lugar.

Fase 4 (En curso): Monitorear la actividad de anonimización (qué categorías de datos se están anonimando con más frecuencia) para identificar prioridades de capacitación en seguridad y ajustar configuraciones de detección de entidades.

El incidente de Samsung que desencadenó la ola de prohibiciones de IA empresarial reflejó un fallo de seguridad, no una propiedad inevitable de las herramientas de IA. Los controles técnicos que no existían en el momento de la prohibición de Samsung ahora existen. La pregunta es si los equipos de seguridad los desplegarán o continuarán confiando en prohibiciones que el 71.6% de sus empleados ya están eludiendo.


El Servidor MCP y la Extensión de Chrome de anonym.legal proporcionan la capa de control técnico que hace que la adopción de IA empresarial sea compatible con la seguridad de datos. Ambas herramientas funcionan de manera transparente — los empleados utilizan IA normalmente; los datos sensibles se anonimizan antes de llegar a proveedores externos de IA.

Fuentes:

¿Listo para proteger sus datos?

Comience a anonimizar PII con más de 285 tipos de entidades en 48 idiomas.