Voltar ao BlogSegurança de IA

900.000 Usuários Comprometidos: Como Escolher uma...

Em janeiro de 2026, duas extensões maliciosas do Chrome com mais de 900.000 usuários foram flagradas exfiltrando conversas do ChatGPT e DeepSeek a...

March 8, 20268 min de leitura
Chrome extension securitymalicious extensionChatGPT privacyAI data protection

O Incidente de Janeiro de 2026

Em janeiro de 2026, pesquisadores de segurança descobriram duas extensões maliciosas do Chrome que comprometeram mais de 900.000 usuários.

Os nomes das extensões foram escolhidos deliberadamente para parecer ferramentas legítimas de aprimoramento de IA:

  • "Chat GPT para Chrome com GPT-5, Claude Sonnet & DeepSeek AI" — mais de 600.000 usuários
  • "AI Sidebar com Deepseek, ChatGPT, Claude e mais" — mais de 300.000 usuários

Ambas as extensões estavam fazendo a mesma coisa: exfiltrando conversas completas do ChatGPT e DeepSeek a cada 30 minutos para um servidor remoto de comando e controle.

Os dados que estavam sendo enviados incluíam código-fonte, informações pessoalmente identificáveis, questões legais em discussão, estratégias de negócios e dados financeiros. Tudo que os usuários haviam digitado em suas sessões de chat de IA — tudo o que consideravam privado — estava sendo transmitido para partes desconhecidas.

Como as Extensões Contornaram Sinais de Confiança

As extensões solicitaram permissão para "coletar dados analíticos anônimos e não identificáveis" — uma linguagem calculada para parecer inofensiva durante a revisão de permissões.

Na realidade, elas capturavam o conteúdo completo das conversas de IA. A permissão de análise era o veículo; a exfiltração da conversa de IA era a carga.

Essa técnica — usar permissões que soam inócuas para permitir a coleta de dados prejudiciais — representa o manual operacional que tornou a categoria de ameaça de extensões do Chrome tão persistente. Usuários que nunca clicariam em um link de phishing instalaram essas extensões deliberadamente, da Chrome Web Store, porque pareciam oferecer benefícios de produtividade em IA.

O Padrão Mais Amplo: 67% das Extensões de IA Coletam Seus Dados

O incidente de janeiro de 2026 não foi um caso isolado. Pesquisas da Incogni descobriram que 67% das extensões de IA do Chrome coletam ativamente dados dos usuários — um número corroborado em várias análises independentes do ecossistema de extensões.

Esse é o paradoxo central do mercado de extensões de privacidade de IA: as extensões que os usuários instalam especificamente para proteger sua privacidade em IA estão, na maioria dos casos, coletando esses mesmos dados.

O mercado criou uma categoria — ferramentas de privacidade de IA para navegadores — mas não criou mecanismos confiáveis para os usuários verificarem se uma determinada extensão realmente fornece privacidade ou apenas afirma fazê-lo. O resultado: um mercado onde a ferramenta instalada para proteção é, ela mesma, o vetor de ataque.

A Arquitetura que Distinque Seguro de Inseguro

O incidente de janeiro de 2026 ilustra uma distinção técnica específica que os usuários devem entender ao avaliar qualquer extensão do Chrome adjacente à IA.

Arquitetura insegura — roteamento através dos servidores da extensão:

  1. O usuário digita no ChatGPT
  2. A extensão intercepta o texto
  3. A extensão transmite o texto para seu próprio servidor backend para "processamento"
  4. O servidor backend retorna o texto processado
  5. A extensão envia para o ChatGPT

Nesta arquitetura, cada prompt passa pela infraestrutura do desenvolvedor da extensão. O desenvolvedor da extensão tem acesso total ao conteúdo da conversa. Se a extensão for maliciosa (ou for adquirida posteriormente por um ator malicioso, ou for violada), todo esse conteúdo fica exposto.

Arquitetura segura — processamento local apenas:

  1. O usuário digita no ChatGPT
  2. A extensão intercepta o texto
  3. A extensão processa o texto localmente no navegador (usando o mesmo ambiente de execução JavaScript que alimenta a extensão)
  4. O texto processado é enviado diretamente ao ChatGPT

Nesta arquitetura, nada sai do navegador do usuário, exceto o texto processado final enviado ao serviço de IA. A infraestrutura do desenvolvedor da extensão nunca está no caminho dos dados.

A pergunta a ser feita a qualquer extensão de privacidade de IA: onde o processamento acontece? Se a resposta envolve os próprios servidores da extensão, seus dados estão fluindo através de um terceiro.

Cinco Perguntas a Fazer Antes de Instalar uma Extensão de Privacidade de IA

Dado que 67% das extensões de IA do Chrome coletam dados dos usuários (pesquisa da Incogni), e dado que extensões maliciosas podem aparecer na Chrome Web Store com centenas de milhares de usuários, o framework de avaliação é importante.

1. Onde a detecção de PII é processada? Pergunte diretamente ou encontre na política de privacidade: a detecção de PII é realizada localmente no navegador, ou o texto é enviado para os servidores backend da extensão para análise? O processamento local significa que o desenvolvedor da extensão nunca vê seu texto.

2. O que acontece com o conteúdo da conversa? Extensões que "protegiam" roteando através de seus próprios servidores proxy têm acesso total a tudo que você digita. Extensões que modificam o texto localmente e enviam diretamente ao serviço de IA não têm.

3. Quem é o editor verificado? O sistema de verificação de editores da Chrome Web Store é imperfeito — as extensões de janeiro de 2026 passaram — mas um editor verificado com uma identidade estabelecida e um modelo de negócios independente da coleta de dados é mais confiável do que um editor anônimo com uma extensão gratuita e sem um modelo de receita aparente.

4. Existe certificação de segurança independente? A certificação ISO 27001 cobre o sistema de gerenciamento de segurança da informação do fornecedor, incluindo suas práticas de desenvolvimento e distribuição de extensões. Auditorias de segurança independentes fornecem verificação externa das alegações feitas.

5. Qual é o modelo de negócios? O sinal mais durável: como esse desenvolvedor de extensão gratuita ganha dinheiro? Se não há um modelo de receita aparente, os dados dos usuários provavelmente são o produto. Uma extensão que faz parte de um produto SaaS pago com um modelo de negócios verificável tem menos incentivo para monetizar dados dos usuários de forma oculta.

O que o Incidente de Janeiro de 2026 Revela Sobre a Segurança em IA

Os mais de 900.000 usuários comprometidos em janeiro de 2026 não eram ingênuos. Eram profissionais que buscaram ferramentas de produtividade em IA, que queriam proteção de privacidade para suas interações em IA, e que instalaram o que pareciam ser ferramentas legítimas da Chrome Web Store.

O ataque funcionou porque:

As extensões ofereciam funcionalidade real: Elas não eram puramente maliciosas — forneciam recursos relacionados à IA juntamente com a exfiltração. Isso as tornava funcionalmente indistinguíveis de ferramentas legítimas durante o uso casual.

Sinais de confiança foram fabricados: Centenas de milhares de usuários criam prova social. Usuários que viram 600.000 instalações eram mais propensos a instalar, não menos.

O pedido de permissão foi projetado para não gerar preocupação: "Análise anônima e não identificável" é exatamente o tipo de linguagem de permissão que os usuários aprovam sem escrutínio.

A exfiltração foi programada para minimizar a detecção: intervalos de 30 minutos são frequentes o suficiente para capturar todas as conversas, mas pouco frequentes o suficiente para evitar acionar monitoramento de segurança baseado em anomalias.

O Framework de Confiança Pós-Incidente

Após o incidente de janeiro de 2026, as equipes de TI corporativas que avaliam extensões de privacidade de IA para implantação em sua força de trabalho devem aplicar um framework de confiança mais rigoroso do que existia anteriormente.

Os elementos mínimos exigidos:

  • Arquitetura de processamento local — verificada por revisão técnica ou auditoria independente, não apenas reivindicada em marketing
  • Verificação de identidade do editor — empresa estabelecida com modelo de negócios e histórico verificáveis
  • Certificação de segurança independente — ISO 27001 ou equivalente
  • Política de privacidade que aborda especificamente os fluxos de dados da extensão — incluindo o que é coletado, para onde é enviado e sob quais circunstâncias
  • Sem roteamento através dos servidores do desenvolvedor da extensão para funcionalidade central de privacidade

Organizações que implantam extensões de IA para centenas ou milhares de funcionários também devem considerar:

  • Auditorias regulares das extensões instaladas para comportamento de exfiltração de dados
  • Monitoramento de rede para detectar conexões externas inesperadas de processos do navegador
  • Listas de permissões de extensões aprovadas implantadas via política do Chrome Enterprise

O incidente de janeiro de 2026 foi um aviso. A taxa de coleta de dados de 67% entre as extensões de IA sugere que o aviso foi justificado.


A extensão do Chrome da anonym.legal processa a detecção de PII localmente — nenhum conteúdo de conversa é transmitido para os servidores da anonym.legal durante a detecção de PII. A anonimização ocorre no navegador antes que o prompt modificado seja enviado ao serviço de IA. Publicado pela anonym.legal, certificado ISO 27001.

Fontes:

Pronto para proteger seus dados?

Comece a anonimizar PII com mais de 285 tipos de entidades em 48 idiomas.