Volver al BlogSeguridad de IA

Las 3.8 Exposiciones Diarias de PII que Su Equipo de...

Cada agente de soporte que utiliza ChatGPT realiza un promedio de 3.8 copias de datos sensibles por día.

April 18, 20268 min de lectura
accidental PII exposuresupport team ChatGPTCyberhaven 3.8 pastesworkflow PII protectionGDPR daily exposure

Las Matemáticas de la Exposición Diaria

La investigación de Cyberhaven encontró que los empleados de empresas realizan un promedio de 3.8 copias de datos sensibles en ChatGPT por usuario por día. Para un equipo de soporte al cliente de 100 personas, esta cifra se traduce en 380 instancias de datos sensibles ingresando a ChatGPT diariamente; cada instancia podría constituir una violación de minimización de datos del GDPR bajo el Artículo 5(1)(c), que requiere que los datos personales sean "adecuados, relevantes y limitados a lo que es necesario."

La cifra de 3.8 no es un número para empleados que ignoran la política. Refleja el comportamiento habitual del flujo de trabajo: los agentes copian la correspondencia del cliente para redactar respuestas, pegan texto de quejas para generar seguimientos empáticos, incluyen detalles de la cuenta para obtener sugerencias contextuales. Cada copia es una acción legítima de productividad que incidentalmente incluye datos personales. El empleado no decidió exponer los datos del cliente; la exposición fue un subproducto de decidir usar una herramienta de IA de manera eficiente.

Una auditoría de la UE de 2024 encontró que el 63% de los datos de usuarios de ChatGPT contenían información personal identificable. Solo el 22% de los usuarios sabía que podía optar por no participar en la recopilación de datos a través de la configuración de ChatGPT. La combinación — la mayoría de los datos contienen PII, la mayoría de los usuarios no son conscientes de los controles — produce una exposición sistemática diaria a gran escala en cualquier organización que no haya implementado controles técnicos.

Por Qué el Comportamiento No Puede Ser Eliminado con Entrenamiento

El flujo de trabajo de copiar y pegar es profundamente habitual. Los usuarios han estado copiando y pegando texto como una interacción fundamental de la computadora durante décadas. La adición de un chatbot de IA como destino para el texto pegado no cambió el comportamiento subyacente; extendió un patrón establecido a un nuevo objetivo.

El entrenamiento de políticas que dice "no pegar PII de clientes en ChatGPT" requiere que los empleados inserten una decisión de clasificación — "¿contiene este texto PII?" — en una acción habitual que no incluye naturalmente una pausa. El efecto del entrenamiento se desvanece a medida que el comportamiento vuelve al hábito. Cada decisión de pegar individual es una microdecisión de bajo riesgo; el efecto acumulativo de 380 decisiones diarias es un riesgo sistemático de cumplimiento que el entrenamiento de políticas no puede abordar de manera confiable.

La solución técnica opera en la capa donde se forma el hábito: la acción de pegar en sí. La extensión de Chrome intercepta el contenido del portapapeles en el momento de pegar, antes de que el contenido llegue al campo de entrada. La interceptación no es una barrera de cumplimiento de políticas (los usuarios siempre pueden anular) — es una herramienta de transparencia. El modal de vista previa muestra al empleado lo que se detectó, dándole un momento de visibilidad en la decisión de clasificación antes de continuar.

Para el líder del equipo de soporte de una empresa de comercio electrónico alemana que redacta respuestas a quejas de clientes: el flujo de trabajo sigue siendo "copiar queja, pegar en ChatGPT, generar respuesta." La extensión de Chrome añade un interludio de 2 segundos donde el agente ve que se detectaron nombres, direcciones y números de pedido y serán anonimizados antes de la presentación. El agente hace clic en continuar. El flujo de trabajo continúa. La violación de cumplimiento no ocurre.

Fuentes:

¿Listo para proteger sus datos?

Comience a anonimizar PII con más de 285 tipos de entidades en 48 idiomas.