Die Durchsetzungsbilanz des Garante
Der Garante per la protezione dei dati personali (Garante) hat sich als der aggressivste KI-Regulator der EU etabliert, durch eine Reihe von wegweisenden Durchsetzungsmaßnahmen:
März 2023 — Vorübergehendes Verbot von ChatGPT: Der Garante ordnete an, dass OpenAI den ChatGPT-Dienst für italienische Nutzer vorübergehend aussetzt, da OpenAI keine ausreichende rechtliche Grundlage für die Verarbeitung der Daten italienischer Nutzer hatte und kein Altersverifikationsmechanismus vorhanden war. OpenAI implementierte die geforderten Änderungen (Altersverifikation, Datenschutzerklärung in italienischer Sprache, Opt-out-Mechanismus für die Datennutzung im Training) und der Dienst wurde im April 2023 wiederhergestellt.
Dezember 2024 — 15 Millionen Euro Geldstrafe gegen OpenAI: Der Garante verhängte eine formelle Geldstrafe von 15 Millionen Euro gegen OpenAI wegen rechtswidriger Verarbeitung der personenbezogenen Daten italienischer Nutzer. Die Durchsetzungsmitteilung nannte: Fehlen einer angemessenen rechtlichen Grundlage, mangelnde Transparenz darüber, wie Nutzerdaten im Training verwendet wurden, und das Versäumnis, eine Altersverifikation für Minderjährige umzusetzen.
Laufende Ermittlungen (2024-2025): Der Garante leitete formelle Ermittlungen gegen mehrere KI-Anbieter ein, die in Italien tätig sind, darunter Replika (KI-Begleiter), Worldcoin (biometrische Daten) und mehrere generative KI-Startups.
Das Muster etabliert Italien als die risikoreichste Jurisdiktion der EU für den Einsatz von KI-Tools ohne dokumentierte Compliance-Maßnahmen.
Was der Garante von Nutzern von KI-Tools verlangt
Die Durchsetzungsmaßnahmen des Garante haben klargestellt, was italienische Organisationen tun müssen, wenn sie KI-Tools verwenden, die personenbezogene Daten verarbeiten:
Dokumentation der rechtlichen Grundlage: Jedes KI-Tool, das personenbezogene Daten italienischer Nutzer verarbeitet, benötigt eine dokumentierte rechtliche Grundlage gemäß Artikel 6 der DSGVO. Der Garante war skeptisch gegenüber Ansprüchen auf "berechtigtes Interesse" für die Nutzung von Trainingsdaten — ausdrückliche Zustimmung oder vertragliche Notwendigkeit sind bevorzugte Grundlagen.
Datenverarbeitungsvereinbarungen: Italienische Organisationen, die KI-Tools von Drittanbietern als Datenverarbeiter nutzen, müssen DSGVO-konforme Datenverarbeitungsvereinbarungen haben. Der Garante überprüfte insbesondere, ob die DPAs der KI-Anbieter die Datenverwendungsbeschränkungen angemessen abdeckten.
Kontrollen der Eingabedaten: Der Fokus des Garante auf die "rechtswidrige Verarbeitung" von Daten italienischer Nutzer hat eine Anforderung zur Folge, dass Organisationen kontrollieren, welche personenbezogenen Daten in KI-Systeme gelangen. Technische Kontrollen, die verhindern, dass personenbezogene Daten italienischer Nutzer ohne angemessene rechtliche Grundlage in KI-Systeme gelangen, erfüllen die wesentlichen Bedenken des Garante.
Altersverifikation für KI-Systeme mit Verbraucherzugang: Nach dem Verbot von ChatGPT verlangt der Garante, dass KI-Systeme, die für italienische Verbraucher zugänglich sind, eine Altersverifikation für Minderjährige implementieren.
Transparenz: Datenschutzerklärungen in italienischer Sprache, die klar erklären, wie KI-Systeme personenbezogene Daten verwenden, einschließlich jeglicher Nutzung zu Trainingszwecken.
Die 63% Lücke bei italienischen Unternehmen
Eine Umfrage des Garante aus dem Jahr 2024 ergab, dass 63% der italienischen Unternehmen, die KI-Tools verwenden, über keine DSGVO-konformen Richtlinien zur Nutzung von KI verfügen. Diese Lücke schafft ein erhebliches Durchsetzungsrisiko, da der Garante sein Durchsetzungsprogramm für KI ausweitet.
Die Registrierungen von DPOs in Italien stiegen um 340% nach dem Verbot von ChatGPT — ein Anstieg, der durch Organisationen verursacht wurde, die erkannten, dass der Einsatz von KI ohne Beteiligung eines DPOs erhebliche rechtliche Risiken mit sich brachte. Allerdings ist das Vorhandensein eines DPOs nicht ausreichend, ohne technische Kontrollen, die die Richtlinien des DPOs durchsetzen.
Die Lücke zwischen DPO-Richtlinien und technischen Kontrollen ist genau das, was die Durchsetzung des Garante zum Ziel hat: Organisationen, die schriftliche KI-Richtlinien haben, sich jedoch darauf verlassen, dass Mitarbeiter die Compliance selbst überwachen, anstatt technische Maßnahmen umzusetzen, die die Richtlinie durchsetzbar machen.
Technische Umsetzung für die Compliance mit dem Garante
Für italienische Organisationen oder Organisationen mit italienischen Nutzern umfasst der technisch konforme Stack für die Nutzung von KI:
Vor-AI-Einreichung PII-Filterung: Die Chrome-Erweiterung oder die MCP-Server-Integration schafft eine technische Schicht, die die Einreichung von KI-Aufforderungen abfängt und italienische personenbezogene Daten entfernt, bevor sie das KI-Modell erreichen. Dies erfüllt das zentrale Anliegen des Garante bezüglich der "rechtswidrigen Verarbeitung von Daten italienischer Nutzer" — wenn italienische PII vor der Einreichung entfernt wird, erreicht die italienische personenbezogene Daten das KI-System nicht.
Italien-spezifische Entitätstypen: Die Erkennung italienischer PII muss folgende Punkte abdecken:
- Codice fiscale (italienische Steueridentifikationsnummer — 16-stelliges alphanumerisches nationales ID)
- Partita IVA (italienische USt-Identifikationsnummer — 11-stellige Geschäftskennung)
- Carta d'identità (italienischer Personalausweis)
- Tessera sanitaria (italienische Gesundheitskarte, die den codice fiscale enthält)
- Italienische IBAN-Formate
Standard-PII-Tools ohne italienische Entitätstypen übersehen den codice fiscale — die primäre italienische nationale Identifikationsnummer — und andere spezifische Identifikatoren der Jurisdiktion.
Audit-Trail für regulatorische Nachweise: Anfragen zur Inspektion durch den Garante erfordern routinemäßig den Nachweis, dass die Nutzung von KI von angemessenen technischen Kontrollen begleitet wurde. Ein zentralisierter Audit-Trail, der zeigt, dass die PII-Filterung vor der Einreichung für Daten italienischer Nutzer angewendet wurde, liefert den Nachweis für diesen Nachweis.
DPA-Dokumentation: Für KI-Tools, die als Datenverarbeiter verwendet werden: ein ausgefülltes DPA-Überprüfungsdokument für jeden KI-Anbieter, einschließlich der Bewertung der Bestimmungen zur Nutzung von Trainingsdaten.
Sektor-spezifische Fokusbereiche des Garante
Das Durchsetzungsprogramm des Garante hat spezifische Sektor-Fokus:
Gesundheitswesen: Der Garante behandelt italienische Gesundheitsdaten als hochriskant gemäß Artikel 9 der DSGVO. Jedes KI-Tool, das italienische Patientendaten verarbeitet, benötigt eine ausdrückliche rechtliche Grundlage, DPA und verbesserte technische Maßnahmen. Der Garante hat insbesondere KI-Diagnosetools und klinische Dokumentations-KI als solche gekennzeichnet, die DPIAs erfordern.
Finanzdienstleistungen: Die Verbraucherprofilierung mit KI hat die Aufmerksamkeit des Garante auf sich gezogen. Italienische Banken und Finanzinstitute, die KI für Kreditentscheidungen oder Marketing-Personalisierung verwenden, müssen DPIAs durchführen und Erklärbarkeitskontrollen implementieren.
HR und Beschäftigung: KI-Tools für Rekrutierung, Leistungsbewertung und Mitarbeiterüberwachung erfordern DPIAs gemäß italienischem Recht und den Richtlinien des Garante zur Mitarbeiterüberwachung (Provvedimento 2023).
Bildung: KI-Tools in italienischen Bildungseinrichtungen haben zusätzliche Anforderungen gemäß den Richtlinien des Garante zum Schutz von Studentendaten (2024).
Für Organisationen in diesen Sektoren erfordert die Compliance mit dem Garante für KI-Implementierungen sektorspezifische Dokumentationen über die allgemeinen Anforderungen hinaus.
Quellen: