A három samsung-incidens
2023 márciusában a Samsung engedélyezte az alkalmazottaknak a ChatGPT-t bizonyos belső feladatokhoz. Három héttel később három különálló biztonsági incidensük volt.
1. incidens: Forráskódleak
Egy szoftvermérnök forráskódot illesztett be a ChatGPT-be hibakeresési célokból. A kód olyan saját algoritmusokat tartalmazott, amelyek a Samsung gyártási folyamatait irányítják.
A kérdés: „Optimalizáld ezt a kódot és magyarázd el, mit csinál."
A valódi probléma: A ChatGPT tanulhat az inputokból és a jövőbeni modellképzéshez felhasználhatja azokat.
2. incidens: Adatbázis-szivárgás
Egy másik mérnök megbeszélés-összefoglalókat illesztett be, amelyek érzékeny belső adatbázis-információkat tartalmaztak, hogy a ChatGPT-vel tisztítsa meg és formázza az adatokat.
3. incidens: Értekezlet-összefoglalók
Egy harmadik alkalmazott belső tárgyalási felvételeket illesztett be, amelyeket az értekezlet összefoglalójára kért.
Ezek az összefoglalók tartalmaztak:
- Bizalmas stratégiai megbeszélések
- Személyes alkalmazotti információk
- Potenciálisan privilegizált belső kommunikáció
A rendszerszintű probléma
A Samsung-incidensek a várost alapító pillanatok az AI-adatvédelemben – de félreértik azt.
Az azonnali reakció: tiltsa be a ChatGPT-t.
A tényleges probléma: A munkavállalók AI-t akarnak és fognak is használni. A Samsung tiltása az embereket a saját eszközeikre terelte.
| Metrika | Tiltás előtt | Tiltás után |
|---|---|---|
| Vállalati ChatGPT-használat | Mérsékelt | Csökkentett |
| Személyes eszköz AI-használat | Ismeretlen | Becsülhetőleg nőtt |
| Tényleges kockázat | Magas | Megváltozott, de nem csökkentett |
A helyes tanulság
A Samsung tanulsága nem az volt, hogy az AI veszélyes. Azt volt, hogy az AI-t megfelelő adatvédelmi kontrollok nélkül vezették be.
A helyes megközelítés:
- Engedje meg az AI használatát (termelékenységi igény érvényes)
- Anonimizálja az érzékeny adatokat az AI-ba való beillesztés előtt
- Vezessen be műszaki kontrollokat, nem csak policy-alapúakat
Az anonym.legal Chrome-bővítménye és Office-bővítménye ezt teszi:
- Az alkalmazottak ChatGPT-t, Claude-ot, Geminit használnak
- A PII automatikusan anonimizálódik beillesztés előtt
- Nincs valódi ügyféladat az AI-rendszerekben
Következtetés
A Samsung eset kiváltotta azt az iparági AI-tiltási hullámot, amely óriási produktivitásveszteséget okozott. A helyes tanulság: nem a tiltás kellett, hanem az anonimizálás.
Két évvel később az iparág eljut erre a következtetésre – az anonym.legal ezt az utat megkönnyíti.