Torna al BlogSicurezza IA

Da FEMA alla Finanza: Perché la Politica AI Senza...

Il 77% dei dipendenti condivide dati sensibili di lavoro con strumenti AI nonostante le politiche che lo vietano.

April 4, 20268 min di lettura
AI data governancetechnical controlsChatGPT policy failureChrome Extension DLPenterprise AI security

Quando la Politica Incontra il Comportamento Umano

Un appaltatore governativo, sotto pressione per elaborare le domande di aiuto per inondazioni FEMA, ha incollato nomi, indirizzi, dettagli di contatto e dati sanitari dei richiedenti disastri in ChatGPT per elaborare le informazioni più rapidamente. L'intento non era malevolo — era una decisione di produttività presa sotto pressione. Il risultato è stata un'indagine governativa, una divulgazione pubblica e un incidente documentato che illustra il modo di fallimento centrale della governance AI basata solo su politiche.

Il 77% dei dipendenti aziendali condivide informazioni sensibili di lavoro con strumenti AI almeno settimanalmente nonostante le politiche che lo vietano (eSecurity Planet/Cyberhaven 2025). La cifra del 77% non riflette una forza lavoro di trasgressori delle politiche, ma la realtà di come gli strumenti AI siano stati adottati: come strumenti di produttività a cui i lavoratori ricorrono riflessivamente quando affrontano pressione temporale, compiti ripetitivi o requisiti di analisi complessi.

L'analisi di Cyberhaven del Q4 2025 ha rilevato che il 34,8% di tutti gli input di ChatGPT contiene dati aziendali riservati. Questa cifra include dipendenti che sono a conoscenza delle politiche di utilizzo dell'AI e non hanno intenzione di violarle — semplicemente non hanno categorizzato i dati che hanno incollato come "riservati" nel momento dell'incollaggio.

Il Problema della Conformità alle Politiche

Le politiche di utilizzo dell'AI affrontano un gap di enforcement intrinseco. A differenza delle politiche di controllo degli accessi (che possono essere enforce tecnicamente tramite autenticazione) o delle politiche di classificazione dei dati (che possono essere enforce tramite DLP a livello di email/storage), le politiche di utilizzo dell'AI dipendono dal giudizio umano nel momento dell'inserimento dei dati.

Il momento in cui un dipendente decide di incollare i dati dei clienti in ChatGPT è una decisione comportamentale di frazione di secondo. Il dipendente potrebbe non ricordare la politica, potrebbe aver calcolato che il guadagno di efficienza supera il rischio percepito, o potrebbe sinceramente non riconoscere i dati come coperti dalla politica. La formazione sulle politiche riduce la frequenza di questa decisione ma non può eliminarla su larga scala.

L'incidente FEMA dimostra l'archetipo: un appaltatore che affronta un grande volume di domande, una scadenza e accesso a uno strumento di sintesi potente. La conformità alla politica richiedeva di scegliere l'elaborazione manuale piuttosto che l'assistenza AI. Sotto pressione temporale, lo strumento ha vinto.

Controlli Tecnici a Livello di Applicazione

L'unico approccio di governance che affronta questo modo di fallimento opera a livello tecnico piuttosto che a livello di politica. L'estensione di Chrome intercetta il contenuto degli appunti prima che raggiunga qualsiasi interfaccia AI basata sul web — ChatGPT, Gemini, Claude.ai, Perplexity, o altri. L'intercettazione è automatica; non dipende dal fatto che l'utente ricordi di applicare una politica.

Quando l'appaltatore FEMA copia i nomi e gli indirizzi dei richiedenti dal sistema di gestione dei casi e incolla in ChatGPT, l'estensione rileva il PII nel contenuto degli appunti, lo anonimizza e invia la versione anonimizzata. L'appaltatore vede un modal di anteprima che mostra cosa sarà sostituito prima dell'invio. L'AI riceve dati de-identificati e può comunque eseguire il compito di sintesi. Il nome, l'indirizzo e i dati sanitari del richiedente non raggiungono mai i server di ChatGPT.

Per le organizzazioni le cui preoccupazioni di governance AI si concentrano sugli strumenti di codifica (Cursor, GitHub Copilot), il Server MCP fornisce il controllo equivalente a livello di applicazione. Il codice incollato nel contesto del modello AI viene intercettato, le credenziali e gli identificatori proprietari vengono sostituiti con token, e l'AI riceve la versione anonimizzata. Entrambi i canali — AI basata su browser e AI basata su IDE — possono essere protetti tramite controlli tecnici che operano indipendentemente dal comportamento dell'utente.

Lo scenario dell'appaltatore FEMA avrebbe avuto un esito diverso con controlli tecnici in atto. L'appaltatore avrebbe potuto elaborare le domande in modo efficiente; i dati dei richiedenti non sarebbero mai arrivati a ChatGPT; l'indagine non sarebbe stata attivata. La formazione sulle politiche non ha prevenuto l'incidente. Uno strato di intercettazione tecnica l'avrebbe fatto.

Fonti:

Pronto a proteggere i tuoi dati?

Inizia ad anonimizzare i PII con oltre 285 tipi di entità in 48 lingue.