Voltar ao BlogSegurança de IA

As 3,8 Exposições Diárias de PII que Sua Equipe de...

Cada agente de suporte que usa o ChatGPT faz em média 3,8 colagens de dados sensíveis por dia.

April 18, 20268 min de leitura
accidental PII exposuresupport team ChatGPTCyberhaven 3.8 pastesworkflow PII protectionGDPR daily exposure

A Matemática da Exposição Diária

A pesquisa da Cyberhaven descobriu que os funcionários de empresas fazem em média 3,8 colagens de dados sensíveis no ChatGPT por usuário por dia. Para uma equipe de suporte ao cliente de 100 pessoas, esse número se traduz em 380 instâncias de dados sensíveis entrando no ChatGPT diariamente — cada instância potencialmente constituindo uma violação de minimização de dados do GDPR sob o Artigo 5(1)(c), que exige que os dados pessoais sejam "adequados, relevantes e limitados ao que é necessário."

O número 3,8 não é um número para funcionários que estão ignorando a política. Ele reflete um comportamento de fluxo de trabalho comum: os agentes copiam a correspondência dos clientes para redigir respostas, colam textos de reclamações para gerar acompanhamentos empáticos, incluem detalhes da conta para obter sugestões contextualizadas. Cada colagem é uma ação legítima de produtividade que, incidentalmente, inclui dados pessoais. O funcionário não decidiu expor os dados do cliente; a exposição foi um subproduto da decisão de usar uma ferramenta de IA de forma eficiente.

Uma auditoria da UE de 2024 descobriu que 63% dos dados dos usuários do ChatGPT continham informações pessoais identificáveis. Apenas 22% dos usuários sabiam que poderiam optar por não participar da coleta de dados através das configurações do ChatGPT. A combinação — a maioria dos dados contém PII, a maioria dos usuários não está ciente dos controles — produz uma exposição sistemática diária em escala em qualquer organização que não tenha implementado controles técnicos.

Por que o Comportamento Não Pode Ser Treinado para Fora

O fluxo de trabalho de copiar e colar é profundamente habitual. Os usuários têm copiado e colado texto como uma interação fundamental com o computador há décadas. A adição de um chatbot de IA como destino para texto colado não mudou o comportamento subjacente; estendeu um padrão estabelecido para um novo alvo.

O treinamento de políticas que diz "não cole PII de clientes no ChatGPT" exige que os funcionários insiram uma decisão de classificação — "este texto contém PII?" — em uma ação habitual que não inclui naturalmente uma pausa. O efeito do treinamento se deteriora à medida que o comportamento reverte ao hábito. Cada decisão de colagem individual é uma micro-decisão de baixo risco; o efeito cumulativo de 380 decisões diárias é um risco sistemático de conformidade que o treinamento de políticas não pode abordar de forma confiável.

A solução técnica opera na camada onde o hábito é formado: a própria ação de colar. A Extensão do Chrome intercepta o conteúdo da área de transferência no momento da colagem, antes que o conteúdo chegue ao campo de entrada. A interceptação não é uma barreira de aplicação de políticas (os usuários sempre podem substituir) — é uma ferramenta de transparência. O modal de pré-visualização mostra ao funcionário o que foi detectado, dando a ele um momento de visibilidade na decisão de classificação antes de prosseguir.

Para o líder da equipe de suporte da empresa de e-commerce alemã que está redigindo respostas a reclamações de clientes: o fluxo de trabalho permanece "copiar reclamação, colar no ChatGPT, gerar resposta." A Extensão do Chrome adiciona um intervalo de 2 segundos onde o agente vê que nomes, endereços e números de pedidos foram detectados e serão anonimizados antes da submissão. O agente clica em prosseguir. O fluxo de trabalho continua. A violação de conformidade não ocorre.

Fontes:

Pronto para proteger seus dados?

Comece a anonimizar PII com mais de 285 tipos de entidades em 48 idiomas.