anonym.legal
Nazaj na blogVarnost umetne inteligence

Preprečevanje v primerjavi z zaznavo...

Ko zaposleni vnese ime odjemalca v ChatGPT, podatki takoj zapustijo organizacijski nadzor. Post-hoc DLP ne more razveljaviti tega.

April 21, 20267 min branja
AI data preventionChatGPT PIIreal-time anonymizationDLP alternativeChrome Extension

Preprečevanje v primerjavi z zaznavo: Zakaj je anonimizacija PII v realnem času edina učinkovita obrana pred puščanjem podatkov AI

Incident Samsung ChatGPT iz marca 2023 ponazarja temeljno omejitev post-hoc varnostnih nadzorjev: inženir Samsung je prilepil lastniški izvor kode v ChatGPT preden bi lahko katerikoli sistem za spremljanje ali preprečevanje posredoval. Koda je zapustila Samsungov nadzor v enem kliku tipke.

Spremljanje dnevnika, končni DLP in pozna anonimizacija so orodja za zaznavo. Vam povedo, kaj se je zgodilo, potem ko se je zgodilo. Pri puščanju podatkov AI je zaznava po prenešanju prezna. Podatki so že bili obdelani s strani modela AI, potencialno vključeni v podatke za usposabljanje in niso več pod vašim nadzorom.

Obseg problema

Studija Cyberhaven iz leta 2025 je analizirala uporabo podjetnih instrumentov AI v tisočih organizacijah:

  • 11% vseh povpraševanj ChatGPT vsebuje zaupne ali osebne podatke
  • Povprečni zaposleni komunicira z instrumenti AI 14-krat na dan
  • Zaposleni s veliko uporabo (odvetniki, analitiki, storitve za odjemalce): 30-50 interakcij AI na dan
  • Pri 11% z zaupnimi podatki: 3-5 zaupnih prenosov na dan na visoko jih uporabljajočega zaposlenega

V organizaciji s 500 visoko jih uporabljajočimi zaposlenimi se to prevaja v 1.500-2.500 zaupnih prenosov podatkov na zunanje sisteme AI na dan. Vsak prenos je potencialni GDPR člen 83 kršitev, če so osebni podatki vključeni.

Kaj predstavlja zaupne ali osebne podatke pri povpraševanjih AI:

  • Odj...

Ste pripravljeni zaščititi svoje podatke?

Začnite z anonimizacijo PII z več kot 285 tipi entitet v 48 jezikih.