Cuando la Política Se Encuentra con el Comportamiento Humano
Un contratista del gobierno, bajo presión de tiempo para procesar las solicitudes de ayuda por inundaciones de FEMA, pegó nombres, direcciones, detalles de contacto y datos de salud de los solicitantes de desastres en ChatGPT para procesar la información más rápido. La intención no era maliciosa; fue una decisión de productividad tomada bajo presión. El resultado fue una investigación gubernamental, divulgación pública y un incidente documentado que ilustra el modo de falla central de la gobernanza de IA solo basada en políticas.
El 77% de los empleados de empresas comparte información sensible de trabajo con herramientas de IA al menos semanalmente a pesar de las políticas que lo prohíben (eSecurity Planet/Cyberhaven 2025). La cifra del 77% refleja no una fuerza laboral de violadores de políticas, sino la realidad de cómo se han adoptado las herramientas de IA: como herramientas de productividad que los trabajadores utilizan de forma reflexiva cuando enfrentan presión de tiempo, tareas repetitivas o requisitos de análisis complejos.
El análisis de Q4 2025 de Cyberhaven encontró que el 34.8% de todas las entradas de ChatGPT contienen datos comerciales confidenciales. Esta cifra incluye a empleados que son conscientes de las políticas de uso de IA y no tienen intención de violarlas; simplemente no categorizaron los datos que pegaron como "confidenciales" en el momento de pegarlos.
El Problema de Cumplimiento de Políticas
Las políticas de uso de IA enfrentan una brecha inherente de cumplimiento. A diferencia de las políticas de control de acceso (que pueden ser aplicadas técnicamente a través de la autenticación) o las políticas de clasificación de datos (que pueden ser aplicadas a través de DLP en la capa de correo electrónico/almacenamiento), las políticas de uso de IA dependen del juicio humano en el momento de la entrada de datos.
El momento en que un empleado decide pegar datos de clientes en ChatGPT es una decisión de comportamiento de fracción de segundo. El empleado puede no recordar la política, puede haber calculado que la ganancia de eficiencia supera el riesgo percibido, o puede no reconocer genuinamente que los datos están cubiertos por la política. La capacitación en políticas reduce la frecuencia de esta decisión, pero no puede eliminarla a gran escala.
El incidente de FEMA demuestra el arquetipo: un contratista enfrentando un gran volumen de solicitudes, una fecha límite y acceso a una poderosa herramienta de resumen. El cumplimiento de la política requería elegir el procesamiento manual sobre la asistencia de IA. Bajo presión de tiempo, la herramienta ganó.
Controles Técnicos en la Capa de Aplicación
El único enfoque de gobernanza que aborda este modo de falla opera en la capa técnica en lugar de la capa de política. La extensión de Chrome intercepta el contenido del portapapeles antes de que llegue a cualquier interfaz de IA basada en la web — ChatGPT, Gemini, Claude.ai, Perplexity, u otros. La interceptación es automática; no depende de que el usuario recuerde aplicar una política.
Cuando el contratista de FEMA copia los nombres y direcciones de los solicitantes del sistema de gestión de casos y los pega en ChatGPT, la extensión detecta la PII en el contenido del portapapeles, la anonimiza y envía la versión anonimizada. El contratista ve un modal de vista previa que muestra lo que se sustituirá antes de la presentación. La IA recibe datos desidentificados y aún puede realizar la tarea de resumen. El nombre, la dirección y los datos de salud del solicitante nunca llegan a los servidores de ChatGPT.
Para organizaciones cuyas preocupaciones de gobernanza de IA se centran en herramientas de codificación (Cursor, GitHub Copilot), el Servidor MCP proporciona el control equivalente en la capa de aplicación. El código pegado en el contexto del modelo de IA es interceptado, las credenciales y los identificadores propietarios son reemplazados por tokens, y la IA recibe la versión anonimizada. Ambos canales — IA basada en navegador e IA basada en IDE — pueden ser protegidos a través de controles técnicos que operan independientemente del comportamiento del usuario.
El escenario del contratista de FEMA habría tenido un resultado diferente con controles técnicos en su lugar. El contratista podría haber procesado las solicitudes de manera eficiente; los datos de los solicitantes nunca habrían llegado a ChatGPT; la investigación no se habría desencadenado. La capacitación en políticas no evitó el incidente. Una capa de interceptación técnica lo habría hecho.
Fuentes: