Volver al BlogSeguridad de IA

900,000 Usuarios Comprometidos: Cómo Elegir una...

En enero de 2026, dos extensiones maliciosas de Chrome con más de 900,000 usuarios fueron sorprendidas exfiltrando conversaciones de ChatGPT y...

March 8, 20268 min de lectura
Chrome extension securitymalicious extensionChatGPT privacyAI data protection

El Incidente de Enero de 2026

En enero de 2026, investigadores de seguridad descubrieron dos extensiones maliciosas de Chrome que habían comprometido más de 900,000 usuarios.

Los nombres de las extensiones fueron elegidos deliberadamente para parecer herramientas legítimas de mejora de IA:

  • "Chat GPT para Chrome con GPT-5, Claude Sonnet y DeepSeek IA" — más de 600,000 usuarios
  • "AI Sidebar con Deepseek, ChatGPT, Claude y más" — más de 300,000 usuarios

Ambas extensiones estaban haciendo lo mismo: exfiltrando conversaciones completas de ChatGPT y DeepSeek cada 30 minutos a un servidor remoto de comando y control.

Los datos que fluían incluían código fuente, información personal identificable, asuntos legales en discusión, estrategias comerciales y datos financieros. Todo lo que los usuarios habían escrito en sus sesiones de chat de IA — todo lo que consideraban privado — estaba siendo transmitido a partes desconocidas.

Cómo las Extensiones Evadieron las Señales de Confianza

Las extensiones solicitaron permiso para "recolectar datos analíticos anónimos y no identificables" — un lenguaje calculado para parecer inofensivo durante la revisión de permisos.

En realidad, capturaron el contenido completo de las conversaciones de IA. El permiso de análisis fue el vehículo; la exfiltración de conversaciones de IA fue la carga útil.

Esta técnica — usar permisos que suenan inocuos para habilitar la recolección de datos dañina — representa el manual operativo que ha hecho que la categoría de amenaza de extensiones de Chrome sea tan persistente. Los usuarios que nunca harían clic en un enlace de phishing instalaron estas extensiones deliberadamente, desde la Chrome Web Store, porque parecían ofrecer beneficios de productividad de IA.

El Patrón Más Amplio: 67% de las Extensiones de IA Recolectan Tus Datos

El incidente de enero de 2026 no fue un caso aislado. La investigación de Incogni encontró que el 67% de las extensiones de IA de Chrome recolectan activamente datos de usuarios — una cifra corroborada en múltiples análisis independientes del ecosistema de extensiones.

Este es el núcleo del paradoja del mercado de extensiones de privacidad de IA: las extensiones que los usuarios instalan específicamente para proteger su privacidad de IA son, en la mayoría de los casos, las que están recolectando esos mismos datos.

El mercado creó una categoría — herramientas de privacidad de IA para navegadores — pero no creó mecanismos confiables para que los usuarios verificaran si una extensión dada realmente proporciona privacidad o simplemente lo afirma. El resultado: un mercado donde la herramienta instalada para protección es, en sí misma, el vector de ataque.

La Arquitectura que Distingue lo Seguro de lo Inseguro

El incidente de enero de 2026 ilustra una distinción técnica específica que los usuarios deben entender al evaluar cualquier extensión de Chrome relacionada con IA.

Arquitectura insegura — enrutamiento a través de los servidores de la extensión:

  1. El usuario escribe en ChatGPT
  2. La extensión intercepta el texto
  3. La extensión transmite el texto a su propio servidor backend para "procesamiento"
  4. El servidor backend devuelve el texto procesado
  5. La extensión envía a ChatGPT

En esta arquitectura, cada solicitud pasa por la infraestructura del desarrollador de la extensión. El desarrollador de la extensión tiene acceso completo al contenido de la conversación. Si la extensión es maliciosa (o es adquirida más tarde por un actor malicioso, o es violada), todo ese contenido queda expuesto.

Arquitectura segura — procesamiento local únicamente:

  1. El usuario escribe en ChatGPT
  2. La extensión intercepta el texto
  3. La extensión procesa el texto localmente en el navegador (usando el mismo entorno de ejecución de JavaScript que impulsa la extensión)
  4. El texto procesado se envía directamente a ChatGPT

En esta arquitectura, nada sale del navegador del usuario excepto el texto final procesado enviado al servicio de IA. La infraestructura del desarrollador de la extensión nunca está en la ruta de datos.

La pregunta que hacer a cualquier extensión de privacidad de IA: ¿dónde ocurre el procesamiento? Si la respuesta involucra los propios servidores de la extensión, tus datos están fluyendo a través de un tercero.

Cinco Preguntas que Hacer Antes de Instalar una Extensión de Privacidad de IA

Dado que el 67% de las extensiones de IA de Chrome recolectan datos de usuarios (investigación de Incogni), y dado que extensiones maliciosas pueden aparecer en la Chrome Web Store con cientos de miles de usuarios, el marco de evaluación es importante.

1. ¿Dónde se procesa la detección de PII? Pregunta directamente o busca en la política de privacidad: ¿se realiza la detección de PII localmente en el navegador, o se envía el texto a los servidores backend de la extensión para análisis? El procesamiento local significa que el desarrollador de la extensión nunca ve tu texto.

2. ¿Qué sucede con el contenido de la conversación? Las extensiones que "protegen" al enrutarse a través de sus propios servidores proxy tienen acceso completo a todo lo que escribes. Las extensiones que modifican el texto localmente y envían directamente al servicio de IA no lo hacen.

3. ¿Quién es el editor verificado? El sistema de verificación de editores de la Chrome Web Store es imperfecto — las extensiones de enero de 2026 pasaron — pero un editor verificado con una identidad establecida y un modelo de negocio independiente de la recolección de datos es más confiable que un editor anónimo con una extensión gratuita y sin un modelo de ingresos aparente.

4. ¿Hay certificación de seguridad independiente? La certificación ISO 27001 cubre el sistema de gestión de seguridad de la información del proveedor, incluidas sus prácticas de desarrollo y distribución de extensiones. Las auditorías de seguridad independientes proporcionan verificación externa de las afirmaciones realizadas.

5. ¿Cuál es el modelo de negocio? La señal más duradera: ¿cómo gana dinero este desarrollador de extensiones gratuitas? Si no hay un modelo de ingresos aparente, es probable que los datos de los usuarios sean el producto. Una extensión que es parte de un producto SaaS de pago con un modelo de negocio verificable tiene menos incentivo para monetizar los datos de los usuarios de manera encubierta.

Lo que el Incidente de Enero de 2026 Revela Sobre la Seguridad de IA

Los más de 900,000 usuarios comprometidos en enero de 2026 no eran poco sofisticados. Eran profesionales que habían buscado herramientas de productividad de IA, que querían protección de privacidad para sus interacciones de IA, y que instalaron lo que parecían ser herramientas legítimas de la Chrome Web Store.

El ataque funcionó porque:

Las extensiones ofrecían funcionalidad real: No eran puramente maliciosas — proporcionaban características relacionadas con IA junto con la exfiltración. Esto las hacía funcionalmente indistinguibles de herramientas legítimas durante el uso casual.

Se fabricaron señales de confianza: Cientos de miles de usuarios crean prueba social. Los usuarios que vieron 600,000 instalaciones eran más propensos a instalar, no menos.

La solicitud de permiso fue diseñada para no generar preocupación: "Analíticas anónimas y no identificables" es exactamente el tipo de lenguaje de permiso que los usuarios aprueban sin escrutinio.

La exfiltración fue programada para minimizar la detección: intervalos de 30 minutos son lo suficientemente frecuentes como para capturar todas las conversaciones pero lo suficientemente infrecuentes como para evitar activar el monitoreo de seguridad basado en anomalías.

El Marco de Confianza Post-Incidente

Después del incidente de enero de 2026, los equipos de TI empresariales que evalúan extensiones de privacidad de IA para su implementación en su fuerza laboral deben aplicar un marco de confianza más riguroso que el que existía antes.

Los elementos mínimos requeridos:

  • Arquitectura de procesamiento local — verificada por revisión técnica o auditoría independiente, no solo afirmada en marketing
  • Verificación de identidad del editor — empresa establecida con un modelo de negocio verificable e historia
  • Certificación de seguridad independiente — ISO 27001 o equivalente
  • Política de privacidad que aborde específicamente los flujos de datos de la extensión — incluyendo qué se recolecta, a dónde se envía y bajo qué circunstancias
  • Sin enrutamiento a través de los servidores del desarrollador de la extensión para la funcionalidad de privacidad central

Las organizaciones que implementan extensiones de IA a cientos o miles de empleados también deben considerar:

  • Auditorías regulares de las extensiones instaladas para comportamientos de exfiltración de datos
  • Monitoreo de red para detectar conexiones externas inesperadas desde procesos del navegador
  • Listas de permitidos de extensiones aprobadas implementadas a través de la política de Chrome Enterprise

El incidente de enero de 2026 fue una advertencia. La tasa de recolección de datos del 67% en las extensiones de IA sugiere que la advertencia estaba justificada.


La extensión de Chrome de anonym.legal procesa la detección de PII localmente — no se transmite contenido de conversación a los servidores de anonym.legal durante la detección de PII. La anonimización ocurre en el navegador antes de que se envíe el aviso modificado al servicio de IA. Publicado por anonym.legal, certificado ISO 27001.

Fuentes:

¿Listo para proteger sus datos?

Comience a anonimizar PII con más de 285 tipos de entidades en 48 idiomas.