Preprečevanje v primerjavi z zaznavo: Zakaj je anonimizacija PII v realnem času edina učinkovita obrana pred puščanjem podatkov AI
Incident Samsung ChatGPT iz marca 2023 ponazarja temeljno omejitev post-hoc varnostnih nadzorjev: inženir Samsung je prilepil lastniški izvor kode v ChatGPT preden bi lahko katerikoli sistem za spremljanje ali preprečevanje posredoval. Koda je zapustila Samsungov nadzor v enem kliku tipke.
Spremljanje dnevnika, končni DLP in pozna anonimizacija so orodja za zaznavo. Vam povedo, kaj se je zgodilo, potem ko se je zgodilo. Pri puščanju podatkov AI je zaznava po prenešanju prezna. Podatki so že bili obdelani s strani modela AI, potencialno vključeni v podatke za usposabljanje in niso več pod vašim nadzorom.
Obseg problema
Studija Cyberhaven iz leta 2025 je analizirala uporabo podjetnih instrumentov AI v tisočih organizacijah:
- 11% vseh povpraševanj ChatGPT vsebuje zaupne ali osebne podatke
- Povprečni zaposleni komunicira z instrumenti AI 14-krat na dan
- Zaposleni s veliko uporabo (odvetniki, analitiki, storitve za odjemalce): 30-50 interakcij AI na dan
- Pri 11% z zaupnimi podatki: 3-5 zaupnih prenosov na dan na visoko jih uporabljajočega zaposlenega
V organizaciji s 500 visoko jih uporabljajočimi zaposlenimi se to prevaja v 1.500-2.500 zaupnih prenosov podatkov na zunanje sisteme AI na dan. Vsak prenos je potencialni GDPR člen 83 kršitev, če so osebni podatki vključeni.
Kaj predstavlja zaupne ali osebne podatke pri povpraševanjih AI:
- Odj...