Tilbage til BlogGDPR & Overholdelse

Garante Italien: DPA'en der forbød ChatGPT — Hvad italiensk AI og PII-overholdelse kræver

Italiens Garante idømte OpenAI en bøde på 15 millioner euro i december 2024 og forbød midlertidigt ChatGPT i 2023. Her er, hvad Italiens mest aggressive AI-regulator kræver af organisationer, der bruger AI-værktøjer.

March 7, 20267 min læsning
Garante ItalyItalian GDPRChatGPT banAI compliance ItalyOpenAI fine

Garante's AI Håndhævelsesrekord

Italiens Garante per la protezione dei dati personali (Garante) har etableret sig som EU's mest aggressive AI-regulator gennem en række banebrydende håndhævelsesaktioner:

Marts 2023 — Midlertidig forbud mod ChatGPT: Garante beordrede OpenAI til midlertidigt at suspendere ChatGPT-tjenesten for italienske brugere, da Garante fandt, at OpenAI ikke havde tilstrækkelig juridisk grundlag for at behandle italienske brugeres data og ingen aldersverifikationsmekanisme. OpenAI implementerede de ønskede ændringer (aldersverifikation, italiensksproget privatlivsmeddelelse, fravalgsmekanisme for databrug i træning) og tjenesten blev genoprettet i april 2023.

December 2024 — 15 millioner euro bøde mod OpenAI: Garante udstedte en formel bøde på 15 millioner euro mod OpenAI for ulovlig behandling af italienske brugeres personlige data. Håndhævelsesmeddelelsen nævnte: fravær af tilstrækkeligt juridisk grundlag, mangel på gennemsigtighed om, hvordan brugerdata blev brugt i træningen, og manglende implementering af aldersverifikation for mindreårige.

Løbende undersøgelser (2024-2025): Garante indledte formelle undersøgelser mod flere AI-leverandører, der opererer i Italien, herunder Replika (AI-ven), Worldcoin (biometriske data) og flere generative AI-startups.

Mønsteret etablerer Italien som EU's højeste risikojurisdiktion for implementering af AI-værktøjer uden dokumenterede overholdelsesforanstaltninger.

Hvad Garante kræver af AI-værktøjsbrugere

Garante's håndhævelsesaktioner har præciseret, hvad italienske organisationer skal gøre, når de bruger AI-værktøjer, der behandler personlige data:

Dokumentation af juridisk grundlag: Hvert AI-værktøj, der behandler italienske brugeres personlige data, kræver dokumenteret juridisk grundlag i henhold til GDPR Artikel 6. Garante har været skeptisk over for "legitim interesse"-krav til brug af AI-træningsdata — eksplicit samtykke eller kontraktmæssig nødvendighed er foretrukne grundlag.

Databehandlingsaftaler: Italienske organisationer, der bruger tredjeparts AI-værktøjer som databehandlere, skal have GDPR-kompatible databehandlingsaftaler. Garante har specifikt gennemgået, om AI-leverandørers DPA'er tilstrækkeligt dækkede databrugsrestriktioner.

Kontrol af inputdata: Garante's håndhævelsesfokus på "ulovlig behandling" af italienske brugerdata har drevet et krav om, at organisationer kontrollerer, hvilke personlige data der kommer ind i AI-systemer. Tekniske kontroller, der forhindrer italienske brugeres personlige data i at komme ind i AI-systemer uden passende juridisk grundlag, opfylder Garante's substantielle bekymring.

Aldersverifikation for AI-systemer med forbrugeradgang: Efter ChatGPT-forbuddet kræver Garante, at AI-systemer, der er tilgængelige for italienske forbrugere, implementerer aldersverifikation for mindreårige.

Gennemsigtighed: Italiensksprogede privatlivsmeddelelser, der klart forklarer, hvordan AI-systemer bruger personlige data, herunder enhver brug til træningsformål.

63% Italiensk Virksomhedsgab

En Garante-undersøgelse fra 2024 viste, at 63% af italienske virksomheder, der bruger AI-værktøjer, mangler GDPR-kompatible AI-brugspolitikker. Dette gab skaber betydelig håndhævelsesrisiko, da Garante udvider sit AI-håndhævelsesprogram.

Registreringer af italienske DPO'er steg med 340% efter ChatGPT-forbuddet — en stigning drevet af organisationer, der erkendte, at implementering af AI uden DPO-involvering skabte betydelig juridisk eksponering. Dog er det ikke tilstrækkeligt at have en DPO uden tekniske kontroller, der håndhæver DPO's politikker.

DPO-politik-uden-tekniske-kontroller-gabet er præcis, hvad Garante-håndhævelse sigter mod: organisationer, der har skriftlige AI-politikker, men stoler på medarbejdere til at selvkontrollere overholdelse, frem for at implementere tekniske foranstaltninger, der gør politikken håndhævelig.

Teknisk Implementering for Garante Overholdelse

For italienske organisationer eller organisationer med italienske brugere inkluderer den Garante-kompatible tekniske stak til AI-brug:

For-AI indsendelse PII filtrering: Chrome-udvidelsen eller MCP-serverintegration skaber et teknisk lag, der opsnapper AI-promptindsendelse og fjerner italienske personlige data, før de når AI-modellen. Dette opfylder Garante's kernebekymring om "ulovlig behandling af italienske brugerdata" — hvis italienske PII fjernes før indsendelse, når de italienske personlige data ikke AI-systemet.

Italienske specifikke enhedstyper: Italiensk PII-detektion skal dække:

  • Codice fiscale (italiensk skatte-ID — 16-tegn alfanumerisk nationalt ID)
  • Partita IVA (italiensk momsnummer — 11-cifret forretningsidentifikator)
  • Carta d'identità (italiensk nationalt ID-kort)
  • Tessera sanitaria (italiensk sundhedskort, der indeholder codice fiscale)
  • Italienske IBAN-formater

Standard PII-værktøjer uden italienske enhedstyper overser codice fiscale — den primære italienske nationale identifikator — og andre jurisdiktion-specifikke identifikatorer.

Revisionsspor for reguleringsdemonstration: Garante-inspektionsanmodninger kræver rutinemæssigt demonstration af, at AI-brug blev ledsaget af passende tekniske kontroller. Et centraliseret revisionsspor, der viser, at der blev anvendt PII-filtrering før indsendelse for italienske brugerdata, giver bevis for denne demonstration.

DPA-dokumentation: For AI-værktøjer, der bruges som databehandlere: et udfyldt DPA-gennemgangsdokument for hver AI-leverandør, herunder vurdering af bestemmelser om brug af træningsdata.

Sektor-specifikke Garante Fokusområder

Garante's håndhævelsesprogram har specifikke sektorfokus:

Sundhedspleje: Garante betragter italienske sundhedsdata som højrisiko under GDPR Artikel 9. Ethvert AI-værktøj, der behandler italienske patientdata, kræver eksplicit juridisk grundlag, DPA og forbedrede tekniske foranstaltninger. Garante har specifikt flaget AI-diagnoseværktøjer og klinisk dokumentations-AI som krævende DPIA'er.

Finansielle tjenester: Forbrugerprofilering ved hjælp af AI har modtaget Garante's granskning. Italienske banker og finansielle institutioner, der bruger AI til kreditbeslutninger eller markedsføringspersonalisering, skal gennemføre DPIA'er og implementere forklaringskontroller.

HR og beskæftigelse: AI-værktøjer til rekruttering, præstationsvurdering og medarbejderovervågning kræver DPIA'er i henhold til italiensk lov og Garante's vejledning om medarbejderovervågning (Provvedimento 2023).

Uddannelse: AI-værktøjer i italienske uddannelsesmiljøer har yderligere krav efter Garante's vejledning om beskyttelse af studerendes data (2024).

For organisationer i disse sektorer kræver Garante-overholdelse for AI-implementeringer sektorspecifik dokumentation ud over de generelle krav.

Kilder:

Klar til at beskytte dine data?

Begynd at anonymisere PII med 285+ enhedstyper på tværs af 48 sprog.