L'ondata di divieti sull'AI aziendale
Negli ultimi due anni, una parte significativa delle più grandi aziende del mondo ha vietato gli strumenti AI pubblici:
JPMorgan Chase, Deutsche Bank, Wells Fargo, Goldman Sachs, Bank of America, Apple e Verizon sono tra le organizzazioni che hanno implementato restrizioni sull'uso da parte dei dipendenti di ChatGPT e strumenti simili.
Il fattore scatenante è stato Samsung. Nel 2023, Samsung ha revocato un divieto interno su ChatGPT — e in meno di un mese, si sono verificati tre incidenti separati di fuga di codice sorgente. I dipendenti hanno incollato il codice del database dei semiconduttori, il codice del programma di rilevamento dei difetti e le note delle riunioni interne in ChatGPT per ricevere aiuto. Una volta inviati, i dati venivano memorizzati sui server di OpenAI. Samsung non aveva alcun meccanismo per recuperarli o eliminarli. Il divieto è stato ripristinato.
Il caso Samsung è diventato l'evento di riferimento per i team di sicurezza ovunque: se una società tecnologica sofisticata con team di sicurezza dedicati non riesce a prevenire che i dipendenti leakino IP agli strumenti AI, l'unica opzione è bloccare completamente gli strumenti.
O così andava il ragionamento.
Perché i divieti hanno fallito
Il 27,4% di tutti i contenuti inviati ai chatbot AI aziendali contiene informazioni sensibili — un aumento del 156% rispetto all'anno precedente (Zscaler 2025 Data@Risk Report).
Questo numero riflette ciò che è accaduto dopo i divieti: i dipendenti hanno continuato a utilizzare gli strumenti AI. Si sono semplicemente spostati su account non aziendali.
Il 71,6% dell'accesso all'AI aziendale ora avviene tramite account non aziendali bypassando i controlli DLP aziendali (LayerX 2025 Enterprise GenAI Security Report).
Il divieto non ha fermato l'uso dell'AI. Ha spinto l'uso dell'AI sottoterra, dove è meno visibile, meno controllato e meno verificabile. Un sviluppatore che utilizzava ChatGPT tramite l'account aziendale — generando log, attivando avvisi DLP, almeno visibile alle operazioni di sicurezza — si è spostato a usarlo tramite il proprio account personale sul proprio dispositivo aziendale. Esattamente gli stessi dati. Nessuna visibilità.
Questo è il modo fondamentale in cui falliscono i divieti sugli strumenti in un'era in cui lo stesso servizio è disponibile tramite account personali: vietare l'account aziendale non vieta il comportamento.
Il rapporto Zscaler Data@Risk: Cosa c'è realmente in quei prompt
Il Zscaler 2025 Data@Risk Report fornisce il quadro più dettagliato disponibile di ciò che i dipendenti stanno realmente inviando ai chatbot AI aziendali. La figura del 27,4% di dati sensibili si suddivide in categorie:
- Informazioni aziendali riservate e segreti commerciali
- Dati dei clienti (nomi, informazioni di contatto, dettagli dell'account)
- Informazioni personali dei dipendenti
- Codice sorgente (incluso con credenziali incorporate)
- Dati finanziari (utili non rilasciati, termini dell'affare, valori contrattuali)
- Comunicazioni legali e informazioni privilegiate
L'aumento del 156% anno su anno nei dati sensibili nei prompt AI (Zscaler 2025) non riflette principalmente un minor grado di attenzione da parte dei dipendenti. Riflette la crescita dell'adozione degli strumenti AI stessa. Man mano che più dipendenti utilizzano strumenti AI per più compiti, il volume assoluto di dati sensibili che entra in quegli strumenti cresce proporzionalmente.
Il costo della produttività delle restrizioni sull'AI
Il caso di sicurezza per vietare l'AI è chiaro. Il caso di produttività contro di essa è altrettanto chiaro.
La ricerca trova costantemente che l'assistenza dell'AI produce guadagni di produttività sostanziali per i lavoratori della conoscenza:
- Gli sviluppatori che utilizzano assistenti di codifica AI completano i compiti più rapidamente
- I professionisti legali che utilizzano l'AI per il processo di revisione dei documenti elaborano più documenti all'ora
- I team di supporto clienti che utilizzano l'AI per la redazione delle risposte gestiscono più ticket
Quando le aziende vietano l'accesso all'AI per gli sviluppatori che hanno concorrenti che la utilizzano liberamente, il svantaggio competitivo è tangibile. Quando gli analisti devono lavorare senza assistenza dell'AI che i loro colleghi in aziende concorrenti utilizzano regolarmente, il divario di output si accumula nel tempo.
Il tasso di bypass degli account personali del 71,6% riflette non solo la violazione delle regole individuali ma un comportamento economico razionale: il guadagno di produttività dall'AI è abbastanza grande che i dipendenti accettano il rischio di violazione della politica piuttosto che abbandonare lo strumento.
L'alternativa tecnica al divieto
La preoccupazione di sicurezza alla base dei divieti sull'AI è legittima: i dati sensibili che fluiscono verso fornitori di AI esterni creano un rischio reale. La soluzione è eliminare quel rischio tecnicamente — non accettare una perdita di produttività in cambio di un divieto che i dipendenti bypasseranno comunque.
L'approccio tecnico: anonymizzare i dati sensibili prima che raggiungano il modello AI.
Considera lo sviluppatore che incolla una query di database contenente identificatori dei clienti in Claude per ricevere aiuto con l'ottimizzazione. Con i controlli tecnici in atto:
- Lo sviluppatore incolla la query (contenente ID cliente, numeri di conto, informazioni personali identificabili)
- Lo strato di anonimizzazione intercetta prima della trasmissione
- Gli ID cliente diventano "[ID_1]", i numeri di conto diventano "[ACCT_1]", i nomi diventano "[CUSTOMER_1]"
- La query anonimizzata raggiunge Claude
- La risposta di Claude (utilizzando gli stessi token) viene restituita
- Lo sviluppatore vede la risposta con i token — che è sufficiente per comprendere il suggerimento di ottimizzazione
Claude non ha elaborato dati reali dei clienti. Le informazioni sensibili non hanno mai lasciato la rete aziendale. Lo sviluppatore ha ricevuto l'assistenza tecnica di cui aveva bisogno. Il team di sicurezza non ha nulla da indagare.
L'architettura del server MCP per gli sviluppatori
Per gli sviluppatori che utilizzano Claude Desktop o Cursor IDE — i principali strumenti di codifica AI — il Model Context Protocol (MCP) fornisce un'architettura proxy trasparente.
Il server MCP di anonym.legal si trova tra il client AI dello sviluppatore e l'API del modello AI. Tutto il testo trasmesso attraverso il protocollo MCP — inclusi contenuti di file, frammenti di codice, messaggi di errore, file di configurazione e istruzioni in linguaggio naturale — passa attraverso il motore di anonimizzazione prima di raggiungere il modello AI.
Dal punto di vista dello sviluppatore, stanno utilizzando Claude o Cursor normalmente. L'anonimizzazione è invisibile.
Dal punto di vista del team di sicurezza, nessun codice proprietario, credenziali o dati dei clienti lascia la rete in forma identificabile. Il modello AI elabora versioni anonimizzate; le risposte vengono automaticamente de-anonimizzate per lo sviluppatore.
Questa architettura affronta direttamente il problema di Samsung: i dipendenti che incollavano codice sorgente in ChatGPT avrebbero inviato codice anonimizzato, dal quale i dettagli dell'algoritmo proprietario erano stati sostituiti con token prima della trasmissione.
L'architettura dell'estensione Chrome per l'AI basata su browser
Il server MCP affronta l'uso dell'AI integrata nell'IDE. L'uso dell'AI basata su browser — Claude.ai, ChatGPT, Gemini — richiede un diverso strato tecnico.
L'estensione Chrome intercetta il testo prima che venga inviato al servizio AI attraverso l'interfaccia del browser. Lo stesso motore di anonimizzazione si applica: nomi, identificatori aziendali, segreti del codice sorgente, cifre finanziarie e altri contenuti sensibili vengono sostituiti con token prima che il prompt raggiunga i server del fornitore di AI.
La combinazione di Server MCP (IDE) + Estensione Chrome (browser) copre l'intero spettro dei punti di contatto con l'AI in un ambiente aziendale.
Costruire il caso aziendale
Per i CISO che propongono questo approccio ai loro team esecutivi, il caso aziendale ha tre componenti:
1. Sicurezza equivalente a un divieto — In termini di ciò che raggiunge effettivamente i fornitori di AI esterni, i prompt anonimizzati non contengono informazioni sensibili recuperabili. Una violazione dei sistemi del fornitore di AI non produrrebbe nulla di valore riguardo ai clienti, IP o operazioni dell'organizzazione.
2. Nessun sacrificio di produttività — Gli sviluppatori, gli analisti e i lavoratori della conoscenza continuano a utilizzare gli strumenti AI normalmente. L'anonimizzazione è trasparente. La qualità dell'output non cambia perché i modelli AI funzionano altrettanto efficacemente su contenuti pseudonimizzati.
3. Elimina il problema del bypass — Il tasso di bypass degli account personali del 71,6% riflette i dipendenti che scelgono la produttività rispetto alla conformità alle politiche. Quando i dipendenti possono utilizzare strumenti AI attraverso account aziendali senza rischi, la motivazione al bypass scompare. I team di sicurezza riacquistano visibilità nell'uso dell'AI.
Il piano d'azione post-divieto
Per le aziende che attualmente hanno divieti sull'AI in atto e stanno riconsiderando, il piano di transizione:
Fase 1 (Settimane 1-2): Distribuire l'estensione Chrome tramite la politica Chrome Enterprise a tutti i dispositivi aziendali. Questo fornisce immediatamente un'intercettazione PII a livello di browser per i dipendenti che stavano già bypassando le restrizioni tramite account personali.
Fase 2 (Settimane 3-4): Distribuire il server MCP alle postazioni di lavoro degli sviluppatori. Configurare modelli di entità personalizzati per identificatori sensibili specifici dell'organizzazione (codici prodotto interni, formati di account cliente, termini tecnici proprietari).
Fase 3 (Mese 2): Revocare il divieto sull'uso dell'AI per gli account aziendali. I dipendenti possono ora utilizzare strumenti AI attraverso account aziendali con controlli tecnici in atto.
Fase 4 (In corso): Monitorare l'attività di anonimizzazione (quali categorie di dati vengono anonimizzate più frequentemente) per identificare le priorità di formazione sulla sicurezza e regolare le configurazioni di rilevamento delle entità.
L'incidente di Samsung che ha innescato l'ondata di divieti sull'AI aziendale ha riflettuto un fallimento di sicurezza, non una proprietà inevitabile degli strumenti AI. I controlli tecnici che non esistevano al momento del divieto di Samsung ora esistono. La domanda è se i team di sicurezza li implementeranno o continueranno a fare affidamento su divieti che il 71,6% dei loro dipendenti sta già bypassando.
Il server MCP e l'estensione Chrome di anonym.legal forniscono il livello di controllo tecnico che rende l'adozione dell'AI aziendale compatibile con la sicurezza dei dati. Entrambi gli strumenti funzionano in modo trasparente — i dipendenti utilizzano l'AI normalmente; i dati sensibili vengono anonimizzati prima di raggiungere i fornitori di AI esterni.
Fonti: