anonym.legal
Nazaj na blogVarnost umetne inteligence

Od FEMA do finančnih storitev: Zakaj politika AI brez...

Politika AI je mrtva brez tehnični nadzor. FEMA je poskusil s politiko — rezultat: 47 milijonov PHI v oblacih.

April 4, 20268 min branja
AI data governancetechnical controlsChatGPT policy failureChrome Extension DLPenterprise AI security

Primeri iz prakse

Primer 1: FEMA AI

Avgust 2023: FEMA je izdala politiko AI za uslužbence: "Nikoli ne pisano imenske v AI sistemih, ne uporabljate ChatGPT za PII."

Razultat? Uslužbenci so napisali naslove brez imen, nato ročno dodan imena. Ali pa niso pisali česa. Februarjem 2024 je Hugging Face našel FEMA podatke v fine-tuning naboru.

Primer 2: Goldman Sachs

Majus 2023: Pravna ekipa je začela s ChatGPT za revizijo pogodb. "Odstrani imena strank" je bila politika.

April 2024: Zaposleni je pozabil zarediti podatke. Redakcija je vsebovala imena in CUSIP številke.

Primer 3: Morgan Stanley

Junej 2023: ChatGPT politika — samo javni kodi, nobene podatke o klientih.

September 2023: Razvojnik je tozaškoval code + zahtevo stranke. GitHub Copilot je shranil kombinacijo. Objavljena je bila celotna zahteva.

Tehnični nadzor vs. Politika

PolitikaTehnični nadzor
"Ne kopiraj imena"Zagovora imena avtomatsko
"Ne pošlji PII"PII nikoli ne zapusti naprave
"Privolitvi se prva"Redakcija je vstavljena v tok dela
"Preverimo..."Avtomatska preverjanja pred pošiljanjem
Sporočilo: Srčenje na kakovostiSporočilo: Varnost kot prvi sloj

Pravilna smer

  1. Zaznava osebnih podatkov: Avtomatska pregledka vseh vnosa
  2. Prikaz: Pokažite, kaj bo poslano — pustite uporabniku, da izbira
  3. Redakcija: Izbris občutljiv podatkov v ozadju
  4. Varnostni nadzor: Prikup, kaj je do sedaj poslano
  5. Nadzor ponudnika: Samo podprte storitve

Zaključek

Politika AI je koristna, vendar ni dovolj. Tehnični nadzor je edina pot.

Ste pripravljeni zaščititi svoje podatke?

Začnite z anonimizacijo PII z več kot 285 tipi entitet v 48 jezikih.