Três Equipes de Engenharia, Três Incidentes, Um Mês
Em abril de 2023, a Samsung Semiconductor divulgou três incidentes separados nos quais funcionários transmitiram dados proprietários para o ChatGPT dentro de um único mês.
Os incidentes não estavam relacionados entre si. Envolveram diferentes funcionários em diferentes funções, realizando diferentes tarefas, em diferentes dias. Eles compartilhavam apenas duas características: cada funcionário usou o ChatGPT para alcançar um objetivo de trabalho legítimo e cada um inadvertidamente transmitiu dados que a Samsung não pretendia compartilhar com a infraestrutura da OpenAI.
Incidente 1: Um engenheiro de software estava depurando código relacionado a equipamentos semicondutores. Depurar sistemas complexos é um caso de uso comum de ferramentas de IA — fornecendo código a um modelo de IA e pedindo que ele identifique a origem de comportamentos inesperados. O engenheiro colou código fonte dos sistemas proprietários de equipamentos semicondutores da Samsung no ChatGPT. O código continha propriedade intelectual relacionada aos processos de fabricação da Samsung.
Incidente 2: Um funcionário estava preparando um resumo de reunião. A tomada de notas assistida por IA e a sumarização de reuniões tornaram-se ferramentas padrão de fluxo de trabalho em diversas indústrias. O funcionário enviou notas de reunião ao ChatGPT para sumarização. Essas notas de reunião continham discussões internas confidenciais — estratégia de negócios, roteiros técnicos e outras informações que a Samsung considerava não públicas.
Incidente 3: Um terceiro funcionário buscou sugestões de otimização para uma consulta de banco de dados. A otimização de banco de dados é uma tarefa tecnicamente exigente onde a assistência da IA oferece um valor genuíno. O funcionário forneceu a estrutura do banco de dados e a lógica da consulta ao ChatGPT. A lógica da consulta continha referências a estruturas de dados proprietárias e lógica de negócios.
Por Que os Funcionários Fizeram Isso
Nenhum dos três funcionários da Samsung estava agindo irresponsavelmente de acordo com seus próprios padrões profissionais. Eles estavam usando uma ferramenta de IA para tarefas para as quais as ferramentas de IA foram projetadas para ajudar: depuração de código, sumarização de texto, otimização técnica.
O elemento ausente em cada caso foi a fricção técnica. Nenhum sistema interceptou a submissão antes que ela chegasse aos servidores da OpenAI. Nenhum controle sinalizou identificadores de código proprietário antes que eles deixassem a rede corporativa. Nenhuma camada arquitetônica estava entre a necessidade legítima de trabalho do funcionário e a infraestrutura do provedor de IA.
Os funcionários eram racionais. A ferramenta de IA forneceu assistência genuína com tarefas de trabalho legítimas. O aviso de política existia, mas não impôs nenhuma barreira técnica. A consequência da não conformidade — potencial ação disciplinar por um ato acidental — era abstrata e remota em comparação com o benefício imediato de produtividade da ferramenta.
O resultado: três incidentes em um mês, três divulgações de informações proprietárias e uma crise corporativa que desencadeou uma onda global de proibições de IA em empresas.
A Resposta da Indústria
A resposta interna da Samsung foi rápida: o acesso ao ChatGPT foi restrito para dispositivos corporativos. A divulgação desencadeou uma reação mais ampla da indústria que revelou quão disseminada era a condição subjacente.
As organizações que anunciaram proibições ou restrições de ferramentas de IA após a divulgação da Samsung incluíram Bank of America, Citigroup, Goldman Sachs, JPMorgan Chase, Apple e Verizon. A resposta do setor financeiro foi particularmente abrangente — várias instituições importantes concluíram simultaneamente que o perfil de risco das ferramentas de IA sem controles técnicos era incompatível com suas obrigações de conformidade.
Cada organização chegou à mesma conclusão: os funcionários não são o problema, e os avisos de política não são controles suficientes. Os dados estavam saindo de suas redes porque nenhuma barreira técnica os impediu, e a política sozinha não pode criar uma barreira técnica.
A Taxa de Bypass de 71,6%
A abordagem de proibição tem uma taxa de falha documentada. A pesquisa da LayerX de 2025 descobriu que 71,6% dos funcionários sujeitos a proibições de IA em empresas continuaram usando ferramentas de IA através de contas ou dispositivos pessoais.
A taxa de bypass reflete um comportamento básico: quando uma ferramenta fornece um valor genuíno de produtividade, os usuários encontram soluções alternativas em vez de abandonar permanentemente a ferramenta. Um funcionário que descobre que a assistência da IA acelera substancialmente sua produção de trabalho não vai parar de usar essas ferramentas porque a política corporativa as proíbe em dispositivos corporativos. Eles usarão contas pessoais em dispositivos pessoais através de canais que a equipe de segurança não pode ver.
A consequência prática da taxa de bypass de 71,6% é que a proibição de IA alcança o pior resultado possível: dados corporativos chegam a provedores de IA através de canais sem controles de segurança. Pelo menos o acesso a dispositivos corporativos poderia teoricamente ser monitorado. O uso de contas pessoais é invisível para a equipe de segurança completamente.
Os três incidentes da Samsung ocorreram em dispositivos corporativos através de acesso corporativo. Os funcionários que contornam a proibição estão fazendo a mesma coisa — fornecendo dados relacionados ao trabalho para modelos de IA — através de canais sem supervisão empresarial.
O Controle Técnico Que Aborda a Causa Raiz
Os incidentes da Samsung não foram causados pela negligência dos funcionários. Eles foram causados por uma arquitetura que não forneceu nenhuma camada de interceptação entre o uso de IA pelos funcionários e a infraestrutura externa de IA.
A arquitetura do Protocolo de Contexto do Modelo (MCP) fornece um proxy transparente entre clientes de IA e APIs de modelos de IA. Para desenvolvedores que usam Claude Desktop ou Cursor IDE — as principais ferramentas para o tipo de depuração de código que causou o primeiro incidente da Samsung — o Servidor MCP está no caminho do protocolo.
Antes que qualquer texto chegue ao modelo de IA, o Servidor MCP o processa através de um mecanismo de anonimização. O código fonte é analisado em busca de identificadores proprietários: nomes de funções, nomes de variáveis, endpoints de API internos, detalhes de esquema de banco de dados, valores de configuração. Esses são substituídos por tokens estruturados antes que o código chegue ao modelo de IA.
Um desenvolvedor pedindo ao Claude para depurar código semicondutor proprietário da Samsung através de um Servidor MCP equipado com anonimização transmitiria código no qual identificadores proprietários foram substituídos por tokens. O modelo de IA ajuda com a tarefa de depuração usando o código anonimizado — que é suficiente para análise de código. Os detalhes proprietários nunca chegam aos servidores do provedor de IA.
O Incidente 1 se torna tecnicamente impossível. O código fonte deixa a rede em forma anonimizada. A IA fornece a assistência de depuração que o engenheiro precisava. A propriedade intelectual da Samsung permanece sob controle da Samsung.
A mesma arquitetura se aplica ao Incidente 2 (sumarização de notas de reunião através de IA baseada em navegador, abordada pela Extensão do Chrome) e ao Incidente 3 (otimização de consulta de banco de dados através de qualquer interface de codificação de IA, abordada pela anonimização do MCP).
Os incidentes da Samsung foram uma prévia de um problema sistemático. Os controles técnicos que abordam a causa raiz agora existem. A questão é se as empresas os implementarão ou continuarão confiando em proibições que 71,6% de seus funcionários já estão contornando.
Fontes: