Tillbaka till BloggenTeknisk

Reproducerbar integritet: Varför ML-team behöver konfigurationspresets, inte bara dokumentation

Anonymisering av ML-träningsdata måste vara konsekvent och reproducerbar. Om datavetare A och B tillämpar olika entitetstyper blir träningsdataseten inkonsekventa. CNIL undersökte AI-företag 2024 för felaktig användning av träningsdata. Presets är den tekniska lösningen.

March 12, 20266 min läsning
ML training datareproducible privacyGDPR AI ActCNIL enforcementdata science compliance

Reproducerbar integritet: Varför ML-team behöver konfigurationspresets, inte bara dokumentation

DPO godkände dokumentet för anonymiseringsproceduren. Det specificerar: ta bort namn, e-postadresser, telefonnummer och födelsedatum från träningsdataseten med hjälp av metoden Ersätt. Dokumentet är 4 sidor långt och finns i compliance-wikin.

Tolv datavetare konsulterar det vid projektstart. De konfigurerar sina egna versioner av anonymiseringsverktyget. Vissa lägger till nationella ID. Vissa inkluderar IP-adresser. Vissa använder Redigera istället för Ersätt. Tre månader senare är träningsdataseten inkonsekventa.

CNIL (Frankrikes DPA) undersökte flera AI-företag 2024 för felaktig användning av personuppgifter i träningsdataset. Undersökningarna granskade inte bara om anonymisering ägde rum utan hur konsekvent den tillämpades.

Dokumentation är nödvändig. Det är inte tillräckligt. Den tekniska lösningen är preset.

Varför ML-träningsdata kräver specifik konfiguration

Anonymisering av ML-träningsdata har krav som allmän dokumentanonymisering inte har:

Ersätt, inte Redigera: Neurala språkmodeller som tränas på text där namn ersätts med [REDACTED]-tokens lär sig att [REDACTED] är en speciell identifierare som förekommer i namnpositioner. Detta skapar oönskat modellbeteende. Ersättmetoden (som ersätter "John Smith" med "David Chen") bevarar den statistiska fördelningen av namn i texten samtidigt som den tar bort den identifierande informationen. Modellen lär sig från realistiska distributionsmönster för namnpositioner, inte från en mask-token.

Konsekvens över datasetet: Ett träningsdataset där 70% av namnen ersätts och 30% är [REDACTED] ger en inkonsekvent träningssignal. Alla poster bör behandlas identiskt.

Konsekvent entitetsval: Om träningsdatasetet innehåller hälsodata, att ta bort namn men inte födelsedatum i vissa poster skapar inkonsekvens. Alla 12 datavetare måste ta bort samma uppsättning entitetstyper.

Ingen över-anonymisering: Ersättmetoden tillämpad för mycket — att ta bort datum som bara är tidsstämplar, inte födelsedatum — försämrar datasetets nytta utan att förbättra efterlevnaden. Den godkända preset definierar exakt vilka datumentiteter som ska tas bort (födelsedatum, inte allmänna tidsstämplar).

Reproducerbarhet över körningar: Om samma dataset behöver bearbetas igen (t.ex. efter att ha upptäckt en missad entitetstyp), ger bearbetning med samma preset konsekvent utdata. Ad-hoc-konfigurationer är inte reproducerbara.

Problemet med 12 datavetare

Ett europeiskt fintech-företags ML-team använder ett träningsdataset som härstammar från kundinteraktionsloggar. DPO godkände bearbetningssyftet (modellträning för bedräktighetsdetektering) med villkor: alla kundnamn, e-postadresser, telefonnummer och betalningsidentifierare måste ersättas med hjälp av Ersättmetoden innan någon modellträning.

Utan presets:

  • Datavetare 1 tar bort namn, e-postadresser, telefonnummer (inkluderar inte betalningsidentifierare)
  • Datavetare 2 inkluderar betalningsidentifierare men använder Redigera istället för Ersätt
  • Datavetare 3 följer procedurdokumentet exakt
  • Datavetare 4-12 varierar

Resultat: 12 olika bearbetade versioner av träningsdata. Det sammanslagna datasetet är delvis icke-kompatibelt, delvis över-anonymiserat och statistiskt inkonsekvent.

Med DPO-godkänd preset:

  • DPO skapar "ML Träning — Bedräktighetsdetektering" preset med exakta entitetstyper och Ersättmetod
  • Preset delas med alla 12 datavetare med instruktioner: "Använd denna preset för all förberedelse av träningsdata"
  • Preset kan inte ändras utan DPO-granskning (konfigurationsåtkomstkontroll)

Resultat: Alla 12 datavetare producerar identisk anonymiseringsutdata. Det sammanslagna datasetet är konsekvent. Årlig AI-efterlevnadsrevision passerar utan anmärkningar.

Föregående år: 3 anmärkningar relaterade till inkonsekvent anonymisering av ML-träningsdata. Efter preset: 0 anmärkningar.

GDPR AI-lagstiftningens korsning

EU:s AI-lag (i kraft sedan augusti 2024) lägger till efterlevnadskrav för AI-system som använder personuppgifter för träning. Hög-risk AI-system måste dokumentera sina träningsdata, inklusive tillämpade anonymiseringsåtgärder.

GDPR:s syftesbegränsningsprincip (Artikel 5(1)(b)) begränsar användningen av personuppgifter för ML-träning utan specifik rättslig grund. CNIL:s 2024-verkställighetsåtgärder mot AI-företag fokuserade på denna korsning: personuppgifter som samlats in för tjänsteleverans används för träning utan tillräcklig rättslig grund eller anonymisering.

Dokumentationskraven för både GDPR och AI-lagen är lättare att uppfylla när anonymiseringsprocessen för träningsdata tekniskt verkställs genom presets:

  • Presetnamn och konfiguration: den dokumenterade anonymiseringsmetodologin
  • Bearbetningsloggar: bevis på att metodologin tillämpades på specifika dataset
  • DPO-godkännande: registrerat beslut som auktoriserar presetkonfigurationen

Detta skapar den revisionsspår som båda reglerna kräver.

Presetkonfiguration för ML-träningsdata

Entitetstyper för de flesta NLP-träningsdata:

  • PERSON (namn — Ersätt med liknande namn)
  • EMAIL_ADDRESS (Ersätt med syntetiska e-postadresser)
  • PHONE_NUMBER (Ersätt med syntetiska telefonnummer)
  • CREDIT_CARD / IBAN (Ersätt eller Redigera — betalningsdata)
  • LOCATION (Ersätt med liknande platser om geo behövs för modellen; Redigera om inte)
  • DATE_OF_BIRTH (Redigera — åldersgeneraliseringsbehov ofta)

Entitetstyper som vanligtvis INTE ingår för NLP-träningsdata:

  • Allmänna datum (inte födelsedatum) — tidsstämplar och datum i text behövs ofta för tidsmodellering
  • Organisationsnamn — ofta nödvändiga för entitetsigenkänningsträning
  • URLs — ofta nödvändiga för länkning och referensutvinning

ML-ansvarig och DPO definierar dessa distinktioner i den godkända preset. Individuella datavetare fattar inte dessa beslut — de tillämpar preset.

Institutionell kunskap och versionering av presets

Presets tjänar en funktion för institutionellt minne:

Innan presets: Den korrekta entitetskonfigurationen för ML-träningsdata fanns i tankarna på de tre datavetare som hade arbetat igenom compliance-granskningsprocessen. När två av dem lämnade i Q3 gick den institutionella kunskapen förlorad.

Efter presets: Konfigurationen är kodad i "ML Träning — Kunddata v2.1". Versionshistoriken visar när den skapades, vem som godkände den och vad som ändrades mellan v2.0 och v2.1. Nya datavetare använder preset och ärver den institutionella kunskapen som är inbäddad i den.

Version 2.1 lade till IBAN-detektering efter att en compliance-granskning visade att det saknades. Versionshistoriken för 2.0 visar att den godkändes i februari 2025. Revisionsspåret är komplett.

Slutsats

Dokumentation berättar för teammedlemmar vad de ska göra. Presets gör det tekniskt enkelt — och tekniskt verkställbart — att göra det konsekvent.

För specifikt ML-träningsdata är konsekvens både ett efterlevnadskrav (GDPR, AI-lag) och ett tekniskt krav (modellträning kräver konsekvent förbearbetning). Preset uppfyller båda samtidigt.

CNIL och andra DPA:er som undersöker AI-träningsdatapraxis kommer att leta efter bevis på systematisk, konsekvent anonymisering. En preset som tillämpas enhetligt över all förberedelse av träningsdata är det starkaste beviset som finns tillgängligt.

Källor:

Redo att skydda din data?

Börja anonymisera PII med 285+ entitetstyper på 48 språk.