Voltar ao BlogSegurança de IA

De FEMA a Finanças: Por Que a Política de IA Sem...

77% dos funcionários compartilham dados sensíveis de trabalho com ferramentas de IA, apesar das políticas que proíbem isso.

April 4, 20268 min de leitura
AI data governancetechnical controlsChatGPT policy failureChrome Extension DLPenterprise AI security

Quando a Política Encontra o Comportamento Humano

Um contratante do governo sob pressão de tempo para processar solicitações de ajuda de inundação da FEMA colou nomes, endereços, detalhes de contato e dados de saúde de solicitantes de desastres no ChatGPT para processar as informações mais rapidamente. A intenção não era maliciosa — foi uma decisão de produtividade tomada sob pressão. O resultado foi uma investigação governamental, divulgação pública e um incidente documentado que ilustra o modo de falha central da governança de IA apenas com políticas.

77% dos funcionários de empresas compartilham informações sensíveis de trabalho com ferramentas de IA pelo menos semanalmente apesar das políticas que proíbem isso (eSecurity Planet/Cyberhaven 2025). O número de 77% reflete não uma força de trabalho de violadores de políticas, mas a realidade de como as ferramentas de IA foram adotadas: como ferramentas de produtividade que os trabalhadores alcançam reflexivamente quando enfrentam pressão de tempo, tarefas repetitivas ou requisitos de análise complexa.

A análise do Q4 2025 da Cyberhaven descobriu que 34,8% de todas as entradas do ChatGPT contêm dados comerciais confidenciais. Esse número inclui funcionários que estão cientes das políticas de uso de IA e não têm a intenção de violá-las — eles simplesmente não categorizaram os dados que colaram como "confidenciais" no momento da colagem.

O Problema de Conformidade com a Política

As políticas de uso de IA enfrentam uma lacuna de aplicação inerente. Ao contrário das políticas de controle de acesso (que podem ser aplicadas tecnicamente por meio de autenticação) ou das políticas de classificação de dados (que podem ser aplicadas por meio de DLP na camada de e-mail/armazenamento), as políticas de uso de IA dependem do julgamento humano no momento da entrada de dados.

O momento em que um funcionário decide colar dados de clientes no ChatGPT é uma decisão comportamental de fração de segundo. O funcionário pode não se lembrar da política, pode ter calculado que o ganho de eficiência supera o risco percebido ou pode genuinamente não reconhecer os dados como cobertos pela política. O treinamento em políticas reduz a frequência dessa decisão, mas não pode eliminá-la em escala.

O incidente da FEMA demonstra o arquétipo: um contratante enfrentando um grande volume de solicitações, um prazo e acesso a uma poderosa ferramenta de resumo. A conformidade com a política exigia escolher o processamento manual em vez da assistência de IA. Sob pressão de tempo, a ferramenta venceu.

Controles Técnicos na Camada da Aplicação

A única abordagem de governança que aborda esse modo de falha opera na camada técnica em vez da camada de política. A Extensão do Chrome intercepta o conteúdo da área de transferência antes que ele chegue a qualquer interface de IA baseada na web — ChatGPT, Gemini, Claude.ai, Perplexity ou outros. A interceptação é automática; não depende do usuário lembrar de aplicar uma política.

Quando o contratante da FEMA copia nomes e endereços de solicitantes do sistema de gerenciamento de casos e cola no ChatGPT, a extensão detecta o PII no conteúdo da área de transferência, o anonimiza e envia a versão anonimizada. O contratante vê um modal de pré-visualização mostrando o que será substituído antes da submissão. A IA recebe dados desidentificados e ainda pode realizar a tarefa de resumo. O nome, endereço e dados de saúde do solicitante nunca chegam aos servidores do ChatGPT.

Para organizações cujas preocupações de governança de IA se concentram em ferramentas de codificação (Cursor, GitHub Copilot), o Servidor MCP fornece o controle equivalente na camada da aplicação. O código colado no contexto do modelo de IA é interceptado, credenciais e identificadores proprietários são substituídos por tokens, e a IA recebe a versão anonimizada. Ambos os canais — IA baseada em navegador e IA baseada em IDE — podem ser protegidos por meio de controles técnicos que operam independentemente do comportamento do usuário.

O cenário do contratante da FEMA teria tido um resultado diferente com controles técnicos em vigor. O contratante poderia ter processado solicitações de forma eficiente; os dados dos solicitantes nunca teriam chegado ao ChatGPT; a investigação não teria sido acionada. O treinamento em políticas não impediu o incidente. Uma camada de interceptação técnica teria feito isso.

Fontes:

Pronto para proteger seus dados?

Comece a anonimizar PII com mais de 285 tipos de entidades em 48 idiomas.