anonym.legal
Nazaj na blogZdravstvo

Vrzel v zasebnosti AI klinične dokumentacije...

Sistemi za pretvarjanje govora AI lahko nenamerno vstavijo PHI pacienta A v zapis pacienta B.

April 21, 20269 min branja
HIPAA complianceclinical documentationPHI detectionEHR privacyHHS 2025

Problem zasebnosti AI klinične dokumentacije

Zdravstvene organizacije, ki vstavljajo AI za klinično dokumentacijo – pretvarjanje govora, generiranje zapiskov, podporo pri kliničnih odločitvah – se soočajo z vrzeljo skladnosti HIPAA, ki je ročni pregled ne more zanesljivo zapreti.

AI-generirani klinični zapisi uvajajo tri vektorje izpostavljenosti PHI-ja, ki jih tradicionalni delovni tokovi dokumentacije ne:

  1. Navzkrižna onesnaženja: AI, treniran na prejšnjih interakcijah pacientov, lahko vključi PHI enega pacienta v zapise za drugega – pojav, dokumentiran v študijah aplikacij velikih jezikovnih modelov v medicini
  2. Puščanje konteksta: PHI, ki se pojavljajo v poljih, kjer ne bi smeli biti (raziskovalne opombe, narativi za obračun, zahteve za zavarovanje) – AI zapolni polja glede na kontekst vnosa, ne na namero polja
  3. Izpostavljenost v cevovodu usposabljanja: Mnogi ponudniki AI dokumentacije pošiljajo zapise za izboljšanje kakovosti modelov, razen če je eksplicitno zavrnjeno – prenos PHI-ja tretjim osebam, ki obdelujejo podatke, ki morda nimajo ustreznih BAA

Pravilnik HHS iz leta 2025 za analizo tveganja AI posebej zahteva, da »morajo subjekti, ki uporabljajo orodja AI, ta orodja vključiti v svojo analizo tveganja«. To ustvarja formalno zahtevo za dokumentacijo za AI-podprte klinične delovne tokove.

Okvir analize tveganja AI HHS iz leta 2025

HHS-ove predlagane uredbe iz leta 2025 za subjekte, ki pokriva HIPAA, ki uporabljajo orodja AI, dodajajo posebno zahtevo procesu analize tveganja varnostnega pravila: AI sistemi, ki dostopajo, uporabljajo ali generirajo PHI, morajo biti vključeni v ...

Ste pripravljeni zaščititi svoje podatke?

Začnite z anonimizacijo PII z več kot 285 tipi entitet v 48 jezikih.