Torna al BlogSicurezza IA

900.000 utenti compromessi: come scegliere...

Nel gennaio 2026, due estensioni Chrome malevole con oltre 900.000 utenti sono state scoperte mentre esfiltravano conversazioni di ChatGPT e...

March 8, 20268 min di lettura
Chrome extension securitymalicious extensionChatGPT privacyAI data protection

L'incidente di gennaio 2026

Nel gennaio 2026, i ricercatori di sicurezza hanno scoperto due estensioni Chrome malevole che avevano compromesso oltre 900.000 utenti.

I nomi delle estensioni erano stati scelti deliberatamente per apparire come strumenti legittimi di potenziamento AI:

  • "Chat GPT per Chrome con GPT-5, Claude Sonnet & DeepSeek AI" — oltre 600.000 utenti
  • "AI Sidebar con Deepseek, ChatGPT, Claude e altro" — oltre 300.000 utenti

Entrambe le estensioni stavano facendo la stessa cosa: esfiltrare conversazioni complete di ChatGPT e DeepSeek ogni 30 minuti verso un server remoto di comando e controllo.

I dati in uscita includevano codice sorgente, informazioni personali identificabili, questioni legali in discussione, strategie aziendali e dati finanziari. Tutto ciò che gli utenti avevano digitato nelle loro sessioni di chat AI — tutto ciò che consideravano privato — veniva trasmesso a parti sconosciute.

Come le estensioni hanno eluso i segnali di fiducia

Le estensioni richiedevano il permesso di "raccogliere dati analitici anonimi e non identificabili" — un linguaggio calcolato per sembrare innocuo durante la revisione dei permessi.

In realtà, catturavano il contenuto completo delle conversazioni AI. Il permesso analitico era il veicolo; l'esfiltrazione della conversazione AI era il payload.

Questa tecnica — utilizzare permessi che suonano innocui per abilitare la raccolta di dati dannosa — rappresenta il manuale operativo che ha reso la categoria di minaccia delle estensioni Chrome così persistente. Gli utenti che non avrebbero mai cliccato su un link di phishing hanno installato queste estensioni deliberatamente, dal Chrome Web Store, perché apparivano come strumenti di produttività AI.

Il modello più ampio: il 67% delle estensioni AI raccoglie i tuoi dati

L'incidente di gennaio 2026 non è stato un caso isolato. La ricerca di Incogni ha trovato che il 67% delle estensioni AI per Chrome raccoglie attivamente dati degli utenti — una cifra corroborata da molteplici analisi indipendenti dell'ecosistema delle estensioni.

Questo è il paradosso centrale del mercato delle estensioni per la privacy AI: le estensioni che gli utenti installano specificamente per proteggere la loro privacy AI stanno, nella maggior parte dei casi, raccogliendo quegli stessi dati.

Il mercato ha creato una categoria — strumenti per la privacy AI per i browser — ma non ha creato meccanismi affidabili per gli utenti per verificare se una data estensione fornisce realmente privacy o semplicemente lo afferma. Il risultato: un mercato in cui lo strumento installato per la protezione è esso stesso il vettore d'attacco.

L'architettura che distingue sicuro da insicuro

L'incidente di gennaio 2026 illustra una specifica distinzione tecnica che gli utenti dovrebbero comprendere quando valutano qualsiasi estensione Chrome adiacente all'AI.

Architettura insicura — instradamento attraverso i server dell'estensione:

  1. L'utente digita in ChatGPT
  2. L'estensione intercetta il testo
  3. L'estensione trasmette il testo al proprio server backend per "elaborazione"
  4. Il server backend restituisce il testo elaborato
  5. L'estensione invia a ChatGPT

In questa architettura, ogni prompt passa attraverso l'infrastruttura dello sviluppatore dell'estensione. Lo sviluppatore dell'estensione ha accesso completo al contenuto della conversazione. Se l'estensione è malevola (o viene successivamente acquisita da un attore malevolo, o viene violata), tutto quel contenuto è esposto.

Architettura sicura — elaborazione locale solo:

  1. L'utente digita in ChatGPT
  2. L'estensione intercetta il testo
  3. L'estensione elabora il testo localmente nel browser (utilizzando lo stesso runtime JavaScript che alimenta l'estensione)
  4. Il testo elaborato viene inviato direttamente a ChatGPT

In questa architettura, nulla esce dal browser dell'utente tranne il testo finale elaborato inviato al servizio AI. L'infrastruttura dello sviluppatore dell'estensione non è mai nel percorso dei dati.

La domanda da porre a qualsiasi estensione per la privacy AI: dove avviene l'elaborazione? Se la risposta coinvolge i server dell'estensione, i tuoi dati stanno fluendo attraverso una terza parte.

Cinque domande da porre prima di installare un'estensione per la privacy AI

Dato che il 67% delle estensioni AI per Chrome raccoglie dati degli utenti (ricerca di Incogni), e dato che estensioni malevole possono apparire sul Chrome Web Store con centinaia di migliaia di utenti, il framework di valutazione è importante.

1. Dove viene elaborata la rilevazione PII? Chiedi direttamente o trova nella politica sulla privacy: la rilevazione PII viene eseguita localmente nel browser, o il testo viene inviato ai server backend dell'estensione per analisi? L'elaborazione locale significa che lo sviluppatore dell'estensione non vede mai il tuo testo.

2. Cosa succede al contenuto della conversazione? Le estensioni che "proteggono" instradando attraverso i propri server proxy hanno accesso completo a tutto ciò che digiti. Le estensioni che modificano il testo localmente e inviano direttamente al servizio AI non lo fanno.

3. Chi è il publisher verificato? Il sistema di verifica dei publisher del Chrome Web Store è imperfetto — le estensioni di gennaio 2026 sono passate — ma un publisher verificato con un'identità stabilita e un modello di business indipendente dalla raccolta di dati è più affidabile di un publisher anonimo con un'estensione gratuita e senza un apparente modello di entrate.

4. C'è una certificazione di sicurezza indipendente? La certificazione ISO 27001 copre il sistema di gestione della sicurezza delle informazioni del fornitore, comprese le loro pratiche di sviluppo e distribuzione delle estensioni. Le verifiche di sicurezza indipendenti forniscono una verifica esterna delle affermazioni fatte.

5. Qual è il modello di business? Il segnale più durevole: come fa questo sviluppatore di estensioni gratuite a guadagnare? Se non c'è un apparente modello di entrate, è probabile che i dati degli utenti siano il prodotto. Un'estensione che fa parte di un prodotto SaaS a pagamento con un modello di business verificabile ha meno incentivi a monetizzare i dati degli utenti in modo occulto.

Cosa rivela l'incidente di gennaio 2026 sulla sicurezza AI

Gli oltre 900.000 utenti compromessi nel gennaio 2026 non erano poco sofisticati. Erano professionisti che avevano cercato strumenti di produttività AI, che volevano protezione della privacy per le loro interazioni AI, e che avevano installato quelli che sembravano strumenti legittimi dal Chrome Web Store.

L'attacco ha funzionato perché:

Le estensioni offrivano funzionalità reali: non erano puramente malevole — fornivano funzionalità legate all'AI insieme all'esfiltrazione. Questo le rendeva praticamente indistinguibili da strumenti legittimi durante l'uso casuale.

I segnali di fiducia erano fabbricati: centinaia di migliaia di utenti creano prova sociale. Gli utenti che vedevano 600.000 installazioni erano più propensi a installare, non meno.

La richiesta di permesso era progettata per non suscitare preoccupazioni: "analisi anonime e non identificabili" è esattamente il tipo di linguaggio di permesso che gli utenti approvano senza scrutinio.

L'esfiltrazione era programmata per minimizzare il rilevamento: intervalli di 30 minuti sono abbastanza frequenti per catturare tutte le conversazioni ma poco frequenti per evitare di attivare il monitoraggio della sicurezza basato su anomalie.

Il framework di fiducia post-incidente

Dopo l'incidente di gennaio 2026, i team IT aziendali che valutano le estensioni per la privacy AI da implementare nella loro forza lavoro dovrebbero applicare un framework di fiducia più rigoroso di quello esistente prima.

Gli elementi minimi richiesti:

  • Architettura di elaborazione locale — verificata da revisione tecnica o audit indipendente, non solo affermata nel marketing
  • Verifica dell'identità del publisher — azienda stabilita con modello di business e storia verificabili
  • Certificazione di sicurezza indipendente — ISO 27001 o equivalente
  • Politica sulla privacy che affronta specificamente i flussi di dati dell'estensione — incluso cosa viene raccolto, dove viene inviato e in quali circostanze
  • Nessun instradamento attraverso i server dello sviluppatore dell'estensione per la funzionalità di privacy centrale

Le organizzazioni che implementano estensioni AI per centinaia o migliaia di dipendenti dovrebbero anche considerare:

  • Audit regolari delle estensioni installate per comportamenti di esfiltrazione dei dati
  • Monitoraggio della rete per rilevare connessioni esterne inaspettate dai processi del browser
  • Liste di autorizzazione delle estensioni approvate distribuite tramite policy di Chrome Enterprise

L'incidente di gennaio 2026 è stato un avvertimento. Il tasso di raccolta dati del 67% tra le estensioni AI suggerisce che l'avvertimento era giustificato.


L'estensione Chrome di anonym.legal elabora la rilevazione PII localmente — nessun contenuto della conversazione viene trasmesso ai server di anonym.legal durante la rilevazione PII. L'anonimizzazione avviene nel browser prima che il prompt modificato venga inviato al servizio AI. Pubblicato da anonym.legal, certificato ISO 27001.

Fonti:

Pronto a proteggere i tuoi dati?

Inizia ad anonimizzare i PII con oltre 285 tipi di entità in 48 lingue.