Voltar ao BlogSegurança de IA

JPMorgan, Goldman Sachs, Apple: Por que as proibições...

27,4% do conteúdo de chatbots de IA empresarial contém dados sensíveis — um aumento de 156% ano a ano.

March 9, 20269 min de leitura
enterprise AI securityChatGPT banAI data controlsshadow AI

A Onda de Proibição de IA Empresarial

Nos últimos dois anos, uma parte significativa das maiores empresas do mundo proibiu ferramentas de IA públicas:

JPMorgan Chase, Deutsche Bank, Wells Fargo, Goldman Sachs, Bank of America, Apple e Verizon estão entre as organizações que implementaram restrições ao uso de ChatGPT e ferramentas semelhantes por funcionários.

O gatilho foi a Samsung. Em 2023, a Samsung suspendeu uma proibição interna do ChatGPT — e, dentro de um mês, ocorreram três incidentes separados de vazamento de código-fonte. Funcionários colaram código de banco de dados de semicondutores, código de programa de detecção de defeitos e notas de reuniões internas no ChatGPT para obter ajuda. Uma vez enviado, os dados foram armazenados nos servidores da OpenAI. A Samsung não tinha um mecanismo para recuperar ou excluir esses dados. A proibição foi reimposta.

O caso da Samsung se tornou o evento de referência para equipes de segurança em todos os lugares: se uma empresa de tecnologia sofisticada com equipes de segurança dedicadas não consegue impedir que os funcionários vazem propriedade intelectual para ferramentas de IA, a única opção é bloquear as ferramentas completamente.

Ou assim foi o raciocínio.

Por que as Proibições Falharam

27,4% de todo o conteúdo alimentado em chatbots de IA empresarial contém informações sensíveis — um aumento de 156% ano a ano (Zscaler 2025 Data@Risk Report).

Esse número reflete o que aconteceu após as proibições: os funcionários continuaram usando ferramentas de IA. Eles apenas mudaram para contas não corporativas.

71,6% do acesso à IA empresarial agora ocorre por meio de contas não corporativas contornando os controles DLP corporativos (LayerX 2025 Enterprise GenAI Security Report).

A proibição não impediu o uso de IA. Ela empurrou o uso de IA para o subsolo, onde é menos visível, menos controlado e menos auditável. Um desenvolvedor que estava usando o ChatGPT através da conta corporativa — gerando logs, acionando alertas DLP, pelo menos visível para operações de segurança — mudou para usá-lo através de sua conta pessoal em seu dispositivo corporativo. Exatamente os mesmos dados. Sem visibilidade alguma.

Esse é o modo de falha fundamental das proibições de ferramentas em uma era em que o mesmo serviço está disponível através de contas pessoais: proibir a conta corporativa não proíbe o comportamento.

O Relatório Zscaler Data@Risk: O que realmente está nesses prompts

O Zscaler 2025 Data@Risk Report fornece a imagem mais detalhada disponível do que os funcionários estão realmente enviando para chatbots de IA empresarial. O número de 27,4% de dados sensíveis se divide em categorias:

  • Informações comerciais proprietárias e segredos comerciais
  • Dados de clientes (nomes, informações de contato, detalhes da conta)
  • Informações pessoais de funcionários
  • Código-fonte (incluindo credenciais embutidas)
  • Dados financeiros (lucros não divulgados, termos de negócios, valores de contratos)
  • Comunicações legais e informações privilegiadas

O aumento de 156% ano a ano em dados sensíveis nos prompts de IA (Zscaler 2025) não reflete principalmente os funcionários se tornando menos cuidadosos. Reflete o crescimento da adoção de ferramentas de IA em si. À medida que mais funcionários usam ferramentas de IA para mais tarefas, o volume absoluto de dados sensíveis entrando nessas ferramentas cresce proporcionalmente.

O Custo de Produtividade das Restrições de IA

O caso de segurança para proibir IA é simples. O caso de produtividade contra isso é igualmente claro.

Pesquisas consistentemente mostram que a assistência de IA produz ganhos substanciais de produtividade para trabalhadores do conhecimento:

  • Desenvolvedores que usam assistentes de codificação de IA completam tarefas mais rapidamente
  • Profissionais jurídicos que usam IA para revisar documentos processam mais documentos por hora
  • Equipes de suporte ao cliente que usam IA para redigir respostas lidam com mais chamados

Quando as empresas proíbem o acesso à IA para desenvolvedores que têm concorrentes usando-a livremente, a desvantagem competitiva é tangível. Quando analistas devem trabalhar sem a assistência de IA que seus colegas em empresas concorrentes usam rotineiramente, a lacuna de produção se acumula ao longo do tempo.

A taxa de contorno de 71,6% de contas pessoais reflete não apenas a quebra de regras individuais, mas um comportamento econômico racional: o ganho de produtividade da IA é grande o suficiente para que os funcionários aceitem o risco de violação da política em vez de abandonar a ferramenta.

A Alternativa Técnica à Proibição

A preocupação de segurança subjacente às proibições de IA é legítima: dados sensíveis fluindo para provedores de IA externos criam riscos reais. A solução é eliminar esse risco tecnicamente — não aceitar perda de produtividade em troca de uma proibição que os funcionários contornarão de qualquer maneira.

A abordagem técnica: anonimizar dados sensíveis antes que cheguem ao modelo de IA.

Considere o desenvolvedor que cola uma consulta de banco de dados contendo identificadores de clientes no Claude para obter ajuda com otimização. Com controles técnicos em vigor:

  1. O desenvolvedor cola a consulta (contendo IDs de clientes, números de contas, informações pessoalmente identificáveis)
  2. A camada de anonimização intercepta antes da transmissão
  3. IDs de clientes se tornam "[ID_1]", números de contas se tornam "[ACCT_1]", nomes se tornam "[CUSTOMER_1]"
  4. A consulta anonimizada chega ao Claude
  5. A resposta do Claude (usando os mesmos tokens) é retornada
  6. O desenvolvedor vê a resposta com tokens — o que é suficiente para entender a sugestão de otimização

Claude não processou nenhum dado real de clientes. As informações sensíveis nunca deixaram a rede corporativa. O desenvolvedor recebeu a assistência técnica de que precisava. A equipe de segurança não tem nada a investigar.

A Arquitetura do Servidor MCP para Desenvolvedores

Para desenvolvedores usando Claude Desktop ou Cursor IDE — as principais ferramentas de codificação de IA — o Protocolo de Contexto do Modelo (MCP) fornece uma arquitetura de proxy transparente.

O Servidor MCP da anonym.legal fica entre o cliente de IA do desenvolvedor e a API do modelo de IA. Todo texto transmitido através do protocolo MCP — incluindo conteúdos de arquivos, trechos de código, mensagens de erro, arquivos de configuração e instruções em linguagem natural — passa pelo mecanismo de anonimização antes de chegar ao modelo de IA.

Do ponto de vista do desenvolvedor, ele está usando o Claude ou o Cursor normalmente. A anonimização é invisível.

Do ponto de vista da equipe de segurança, nenhum código proprietário, credenciais ou dados de clientes deixa a rede em forma identificável. O modelo de IA processa versões anonimizadas; as respostas são automaticamente desanonimizadas para o desenvolvedor.

Essa arquitetura aborda diretamente o problema da Samsung: os funcionários que colaram código-fonte no ChatGPT teriam enviado código anonimizado, do qual detalhes de algoritmos proprietários foram substituídos por tokens antes da transmissão.

A Arquitetura da Extensão do Chrome para IA Baseada em Navegador

O Servidor MCP aborda o uso de IA integrada ao IDE. O uso de IA baseado em navegador — Claude.ai, ChatGPT, Gemini — requer uma camada técnica diferente.

A Extensão do Chrome intercepta texto antes que ele seja enviado ao serviço de IA através da interface do navegador. O mesmo mecanismo de anonimização se aplica: nomes, identificadores de empresas, segredos de código-fonte, números financeiros e outros conteúdos sensíveis são substituídos por tokens antes que o prompt chegue aos servidores do provedor de IA.

A combinação do Servidor MCP (IDE) + Extensão do Chrome (navegador) cobre todo o espectro de pontos de contato de IA em um ambiente empresarial.

Construindo o Caso de Negócio

Para os CISOs que propõem essa abordagem a suas equipes executivas, o caso de negócio tem três componentes:

1. Segurança equivalente a uma proibição — Em termos do que realmente chega a provedores de IA externos, prompts anonimizados não contêm informações sensíveis recuperáveis. Uma violação dos sistemas do provedor de IA não renderia nada de valor em relação aos clientes, propriedade intelectual ou operações da organização.

2. Zero sacrifício de produtividade — Desenvolvedores, analistas e trabalhadores do conhecimento continuam usando ferramentas de IA normalmente. A anonimização é transparente. A qualidade da produção não muda porque os modelos de IA funcionam tão efetivamente em conteúdo pseudonimizado.

3. Elimina o problema de contorno — A taxa de contorno de 71,6% de contas pessoais reflete os funcionários escolhendo produtividade em vez de conformidade com a política. Quando os funcionários podem usar ferramentas de IA através de contas corporativas sem risco, a motivação para contornar desaparece. As equipes de segurança recuperam visibilidade sobre o uso de IA.

O Playbook Pós-Proibição

Para empresas que atualmente têm proibições de IA em vigor e estão reconsiderando, o playbook de transição:

Fase 1 (Semanas 1-2): Implantar a Extensão do Chrome via política do Chrome Enterprise em todos os dispositivos corporativos. Isso fornece imediatamente interceptação de PII em nível de navegador para funcionários que já estavam contornando restrições por meio de contas pessoais.

Fase 2 (Semanas 3-4): Implantar o Servidor MCP em estações de trabalho de desenvolvedores. Configurar padrões de entidade personalizados para identificadores sensíveis específicos da organização (códigos de produtos internos, formatos de contas de clientes, termos técnicos proprietários).

Fase 3 (Mês 2): Suspender a proibição da política de uso de IA para contas corporativas. Os funcionários agora podem usar ferramentas de IA através de contas corporativas com controles técnicos em vigor.

Fase 4 (Contínuo): Monitorar a atividade de anonimização (quais categorias de dados estão sendo anonimizadas com mais frequência) para identificar prioridades de treinamento em segurança e ajustar configurações de detecção de entidades.

O incidente da Samsung que desencadeou a onda de proibição de IA empresarial refletiu uma falha de segurança, não uma propriedade inevitável das ferramentas de IA. Os controles técnicos que não existiam na época da proibição da Samsung agora existem. A questão é se as equipes de segurança os implantarão ou continuarão a depender de proibições que 71,6% de seus funcionários já estão contornando.


O Servidor MCP e a Extensão do Chrome da anonym.legal fornecem a camada de controle técnico que torna a adoção de IA empresarial compatível com a segurança de dados. Ambas as ferramentas funcionam de forma transparente — os funcionários usam IA normalmente; dados sensíveis são anonimizados antes de chegar a provedores de IA externos.

Fontes:

Pronto para proteger seus dados?

Comece a anonimizar PII com mais de 285 tipos de entidades em 48 idiomas.