Problem zasebnosti AI klinične dokumentacije
Zdravstvene organizacije, ki vstavljajo AI za klinično dokumentacijo – pretvarjanje govora, generiranje zapiskov, podporo pri kliničnih odločitvah – se soočajo z vrzeljo skladnosti HIPAA, ki je ročni pregled ne more zanesljivo zapreti.
AI-generirani klinični zapisi uvajajo tri vektorje izpostavljenosti PHI-ja, ki jih tradicionalni delovni tokovi dokumentacije ne:
- Navzkrižna onesnaženja: AI, treniran na prejšnjih interakcijah pacientov, lahko vključi PHI enega pacienta v zapise za drugega – pojav, dokumentiran v študijah aplikacij velikih jezikovnih modelov v medicini
- Puščanje konteksta: PHI, ki se pojavljajo v poljih, kjer ne bi smeli biti (raziskovalne opombe, narativi za obračun, zahteve za zavarovanje) – AI zapolni polja glede na kontekst vnosa, ne na namero polja
- Izpostavljenost v cevovodu usposabljanja: Mnogi ponudniki AI dokumentacije pošiljajo zapise za izboljšanje kakovosti modelov, razen če je eksplicitno zavrnjeno – prenos PHI-ja tretjim osebam, ki obdelujejo podatke, ki morda nimajo ustreznih BAA
Pravilnik HHS iz leta 2025 za analizo tveganja AI posebej zahteva, da »morajo subjekti, ki uporabljajo orodja AI, ta orodja vključiti v svojo analizo tveganja«. To ustvarja formalno zahtevo za dokumentacijo za AI-podprte klinične delovne tokove.
Okvir analize tveganja AI HHS iz leta 2025
HHS-ove predlagane uredbe iz leta 2025 za subjekte, ki pokriva HIPAA, ki uporabljajo orodja AI, dodajajo posebno zahtevo procesu analize tveganja varnostnega pravila: AI sistemi, ki dostopajo, uporabljajo ali generirajo PHI, morajo biti vključeni v ...