Primeri iz prakse
Primer 1: FEMA AI
Avgust 2023: FEMA je izdala politiko AI za uslužbence: "Nikoli ne pisano imenske v AI sistemih, ne uporabljate ChatGPT za PII."
Razultat? Uslužbenci so napisali naslove brez imen, nato ročno dodan imena. Ali pa niso pisali česa. Februarjem 2024 je Hugging Face našel FEMA podatke v fine-tuning naboru.
Primer 2: Goldman Sachs
Majus 2023: Pravna ekipa je začela s ChatGPT za revizijo pogodb. "Odstrani imena strank" je bila politika.
April 2024: Zaposleni je pozabil zarediti podatke. Redakcija je vsebovala imena in CUSIP številke.
Primer 3: Morgan Stanley
Junej 2023: ChatGPT politika — samo javni kodi, nobene podatke o klientih.
September 2023: Razvojnik je tozaškoval code + zahtevo stranke. GitHub Copilot je shranil kombinacijo. Objavljena je bila celotna zahteva.
Tehnični nadzor vs. Politika
| Politika | Tehnični nadzor |
|---|---|
| "Ne kopiraj imena" | Zagovora imena avtomatsko |
| "Ne pošlji PII" | PII nikoli ne zapusti naprave |
| "Privolitvi se prva" | Redakcija je vstavljena v tok dela |
| "Preverimo..." | Avtomatska preverjanja pred pošiljanjem |
| Sporočilo: Srčenje na kakovosti | Sporočilo: Varnost kot prvi sloj |
Pravilna smer
- Zaznava osebnih podatkov: Avtomatska pregledka vseh vnosa
- Prikaz: Pokažite, kaj bo poslano — pustite uporabniku, da izbira
- Redakcija: Izbris občutljiv podatkov v ozadju
- Varnostni nadzor: Prikup, kaj je do sedaj poslano
- Nadzor ponudnika: Samo podprte storitve
Zaključek
Politika AI je koristna, vendar ni dovolj. Tehnični nadzor je edina pot.