Il Record di Enforcement dell'AI del Garante
Il Garante per la protezione dei dati personali (Garante) ha affermato la sua posizione come il regolatore AI più aggressivo dell'UE attraverso una serie di azioni di enforcement storiche:
Marzo 2023 — Divieto temporaneo di ChatGPT: Il Garante ha ordinato a OpenAI di sospendere temporaneamente il servizio ChatGPT per gli utenti italiani, constatando che OpenAI non aveva una base legale sufficiente per elaborare i dati degli utenti italiani e non disponeva di un meccanismo di verifica dell'età. OpenAI ha implementato le modifiche richieste (verifica dell'età, avviso sulla privacy in lingua italiana, meccanismo di opt-out per l'uso dei dati nell'addestramento) e il servizio è stato ripristinato nell'aprile 2023.
Dicembre 2024 — Multa di 15 milioni di euro contro OpenAI: Il Garante ha emesso una multa formale di 15 milioni di euro contro OpenAI per il trattamento illecito dei dati personali degli utenti italiani. L'avviso di enforcement citava: assenza di una base legale adeguata, mancanza di trasparenza su come i dati degli utenti venivano utilizzati nell'addestramento e mancata attuazione della verifica dell'età per i minori.
Indagini in corso (2024-2025): Il Garante ha avviato indagini formali contro diversi fornitori di AI operanti in Italia, tra cui Replika (compagno AI), Worldcoin (dati biometrici) e diverse startup di AI generativa.
Il modello stabilisce l'Italia come la giurisdizione a più alto rischio dell'UE per il dispiegamento di strumenti AI senza misure di conformità documentate.
Cosa Richiede il Garante agli Utenti di Strumenti AI
Le azioni di enforcement del Garante hanno chiarito cosa devono fare le organizzazioni italiane quando utilizzano strumenti AI che elaborano dati personali:
Documentazione della base legale: Ogni strumento AI che elabora i dati personali degli utenti italiani richiede una base legale documentata ai sensi dell'Articolo 6 del GDPR. Il Garante è stato scettico riguardo alle affermazioni di "interesse legittimo" per l'uso dei dati di addestramento AI — il consenso esplicito o la necessità contrattuale sono basi preferite.
Contratti di Elaborazione dei Dati: Le organizzazioni italiane che utilizzano strumenti AI di terze parti come responsabili del trattamento devono avere Contratti di Elaborazione dei Dati conformi al GDPR. Il Garante ha esaminato specificamente se i DPA dei fornitori di AI coprissero adeguatamente le restrizioni sull'uso dei dati.
Controlli sui dati in ingresso: Il focus dell'enforcement del Garante sull'"elaborazione illecita" dei dati degli utenti italiani ha portato a un requisito che le organizzazioni controllino quali dati personali entrano nei sistemi AI. I controlli tecnici che impediscono ai dati personali degli utenti italiani di entrare nei sistemi AI senza una base legale appropriata soddisfano la preoccupazione sostanziale del Garante.
Verifica dell'età per i sistemi AI con accesso ai consumatori: A seguito del divieto di ChatGPT, il Garante richiede che i sistemi AI accessibili ai consumatori italiani implementino la verifica dell'età per i minori.
Trasparenza: Avvisi sulla privacy in lingua italiana che spiegano chiaramente come i sistemi AI utilizzano i dati personali, incluso qualsiasi uso per scopi di addestramento.
Il Gap del 63% nelle Imprese Italiane
Un sondaggio del Garante del 2024 ha rilevato che il 63% delle aziende italiane che utilizzano strumenti AI non dispone di politiche di utilizzo dell'AI conformi al GDPR. Questo gap crea un rischio di enforcement sostanziale mentre il Garante espande il suo programma di enforcement sull'AI.
Le registrazioni dei DPO italiani sono aumentate del 340% dopo il divieto di ChatGPT — un aumento guidato dalle organizzazioni che riconoscono che il dispiegamento dell'AI senza il coinvolgimento del DPO stava creando un'esposizione legale significativa. Tuttavia, avere un DPO non è sufficiente senza controlli tecnici che applicano le politiche del DPO.
Il gap tra la politica del DPO e i controlli tecnici è esattamente ciò che l'enforcement del Garante mira a colpire: organizzazioni che hanno politiche scritte sull'AI ma si affidano ai dipendenti per autogestire la conformità, piuttosto che implementare misure tecniche che rendano la politica applicabile.
Implementazione Tecnica per la Conformità al Garante
Per le organizzazioni italiane o le organizzazioni con utenti italiani, lo stack tecnico conforme al Garante per l'uso dell'AI include:
Filtraggio PII pre-invio all'AI: L'estensione Chrome o l'integrazione del server MCP crea uno strato tecnico che intercetta l'invio del prompt AI e rimuove i dati personali italiani prima che raggiungano il modello AI. Questo soddisfa la preoccupazione centrale del Garante riguardo all'"elaborazione illecita dei dati degli utenti italiani" — se i PII italiani vengono rimossi prima dell'invio, i dati personali italiani non raggiungono il sistema AI.
Tipi di entità specifici per l'Italia: La rilevazione dei PII italiani deve coprire:
- Codice fiscale (codice fiscale italiano — ID nazionale alfanumerico di 16 caratteri)
- Partita IVA (numero di partita IVA italiano — identificatore aziendale di 11 cifre)
- Carta d'identità (carta d'identità nazionale italiana)
- Tessera sanitaria (carta sanitaria italiana, che incorpora il codice fiscale)
- Formati IBAN italiani
Gli strumenti PII standard senza tipi di entità italiani mancano del codice fiscale — il principale identificatore nazionale italiano — e altri identificatori specifici per giurisdizione.
Traccia di audit per la dimostrazione normativa: Le richieste di ispezione del Garante richiedono regolarmente la dimostrazione che l'uso dell'AI è stato accompagnato da controlli tecnici appropriati. Una traccia di audit centralizzata che mostra che il filtraggio PII pre-invio è stato applicato per i dati degli utenti italiani fornisce la prova per questa dimostrazione.
Documentazione DPA: Per gli strumenti AI utilizzati come responsabili del trattamento: un documento di revisione DPA completato per ogni fornitore di AI, inclusa la valutazione delle disposizioni sull'uso dei dati di addestramento.
Aree di Focus Settoriali Specifiche del Garante
Il programma di enforcement del Garante ha focus specifici per settore:
Sanità: Il Garante tratta i dati sanitari italiani come ad alto rischio ai sensi dell'Articolo 9 del GDPR. Qualsiasi strumento AI che elabora i dati dei pazienti italiani richiede una base legale esplicita, DPA e misure tecniche potenziate. Il Garante ha specificamente segnalato gli strumenti diagnostici AI e l'AI per la documentazione clinica come richiedenti DPIA.
Servizi finanziari: Il profiling dei consumatori utilizzando l'AI ha ricevuto attenzione da parte del Garante. Le banche italiane e le istituzioni finanziarie che utilizzano l'AI per decisioni di credito o personalizzazione del marketing devono condurre DPIA e implementare controlli di spiegabilità.
Risorse umane e occupazione: Gli strumenti AI per il reclutamento, la valutazione delle prestazioni e il monitoraggio dei dipendenti richiedono DPIA ai sensi della legge italiana e delle linee guida del Garante sul monitoraggio dei dipendenti (Provvedimento 2023).
Istruzione: Gli strumenti AI negli ambienti educativi italiani hanno requisiti aggiuntivi a seguito delle linee guida del Garante sulla protezione dei dati degli studenti (2024).
Per le organizzazioni in questi settori, la conformità al Garante per i dispiegamenti dell'AI richiede documentazione specifica per settore oltre ai requisiti generali.
Fonti: