Vissza a BlograAI Biztonság

Hogyan veszítette el a Samsung a tulajdonosi...

Három különálló Samsung mérnöki csapat illesztett be tulajdonosi kódot és bizalmas adatokat a ChatGPT-be 2023 áprilisában.

March 13, 20269 perc olvasás
Samsung ChatGPT leaksource code protectionenterprise AI controlsinsider data leakageMCP Server anonymization

A három samsung-incidens

2023 márciusában a Samsung engedélyezte az alkalmazottaknak a ChatGPT-t bizonyos belső feladatokhoz. Három héttel később három különálló biztonsági incidensük volt.

1. incidens: Forráskódleak

Egy szoftvermérnök forráskódot illesztett be a ChatGPT-be hibakeresési célokból. A kód olyan saját algoritmusokat tartalmazott, amelyek a Samsung gyártási folyamatait irányítják.

A kérdés: „Optimalizáld ezt a kódot és magyarázd el, mit csinál."

A valódi probléma: A ChatGPT tanulhat az inputokból és a jövőbeni modellképzéshez felhasználhatja azokat.

2. incidens: Adatbázis-szivárgás

Egy másik mérnök megbeszélés-összefoglalókat illesztett be, amelyek érzékeny belső adatbázis-információkat tartalmaztak, hogy a ChatGPT-vel tisztítsa meg és formázza az adatokat.

3. incidens: Értekezlet-összefoglalók

Egy harmadik alkalmazott belső tárgyalási felvételeket illesztett be, amelyeket az értekezlet összefoglalójára kért.

Ezek az összefoglalók tartalmaztak:

  • Bizalmas stratégiai megbeszélések
  • Személyes alkalmazotti információk
  • Potenciálisan privilegizált belső kommunikáció

A rendszerszintű probléma

A Samsung-incidensek a várost alapító pillanatok az AI-adatvédelemben – de félreértik azt.

Az azonnali reakció: tiltsa be a ChatGPT-t.

A tényleges probléma: A munkavállalók AI-t akarnak és fognak is használni. A Samsung tiltása az embereket a saját eszközeikre terelte.

MetrikaTiltás előttTiltás után
Vállalati ChatGPT-használatMérsékeltCsökkentett
Személyes eszköz AI-használatIsmeretlenBecsülhetőleg nőtt
Tényleges kockázatMagasMegváltozott, de nem csökkentett

A helyes tanulság

A Samsung tanulsága nem az volt, hogy az AI veszélyes. Azt volt, hogy az AI-t megfelelő adatvédelmi kontrollok nélkül vezették be.

A helyes megközelítés:

  1. Engedje meg az AI használatát (termelékenységi igény érvényes)
  2. Anonimizálja az érzékeny adatokat az AI-ba való beillesztés előtt
  3. Vezessen be műszaki kontrollokat, nem csak policy-alapúakat

Az anonym.legal Chrome-bővítménye és Office-bővítménye ezt teszi:

  • Az alkalmazottak ChatGPT-t, Claude-ot, Geminit használnak
  • A PII automatikusan anonimizálódik beillesztés előtt
  • Nincs valódi ügyféladat az AI-rendszerekben

Következtetés

A Samsung eset kiváltotta azt az iparági AI-tiltási hullámot, amely óriási produktivitásveszteséget okozott. A helyes tanulság: nem a tiltás kellett, hanem az anonimizálás.

Két évvel később az iparág eljut erre a következtetésre – az anonym.legal ezt az utat megkönnyíti.

Készen áll az adatai védelmére?

Kezdje el a PII anonimizálását 285+ entitástípuson 48 nyelven.