Tagasi BlogisseAI Turvalisus

Miks poliitika koolituse ei suuda peatada ChatGPT PII...

77% ettevõtte AI kasutajatest kopeerivad-kleebivad andmeid chatbot päringutesse. Ligi 40% üleslaaditud failidest sisaldavad PII või PCI andmeid.

April 15, 20268 min lugemist
ChatGPT PII leak preventionChrome extension DLPenterprise AI policytechnical controls browsercopy-paste PII protection

Kopeerida-kleepida käitumise probleem

77% ettevõtte AI kasutajatest kopeerivad-kleebivad andmeid chatbot päringutesse. Selle käitumismustri ei piira mittekohusekohane vähemik — see on domineeriv interaktsiooni režiim ettevõtte AI vahendite kasutuse jaoks. Kui töötajad kohtavad keerukat dokumenti, kliendi probleemi või analüütilisi ülesandeid, on loomulik töövoog järgmine: kopeeri asjakohane sisu, kleepige see AI vahendisse, saada vastus.

See töövoog ei erista sisu, mis sisaldab isiklikke andmeid, ja sisu, mis seda ei sisalda. Kopeerija-kleepija toiming eelneb klassifitseerimise otsusele. Ajaks, mil töötaja on sisust kleepinud ja loeb AI vastust, on ülekanne juba toimunud. Poliitika koolitust rakendatakse klassifitseerimise hetkel — "kas kleebivad seda?" — kuid kiire otsuse iseloomu tähendab, et poliitika jätta halveneb kognitiivse koormuse, ajapinge ja harjumuspärase käitumise all.

Cyberhaven uuringus leiti, et ligi 40% üleslaaditud failidest AI vahendites sisaldavad PII või PCI andmeid. See arv sisaldab töötajaid, kes on AI kasutuse poliitikadest täielikult teadlikud: nad laadivad üles faili, millega peavad töötama, mis juhtub sisaldavad klientandmeid. Poliitika rikkumine on juhuslik õigustatud ülesandele.

Miks koolitus ei saa suuruses töötada

Poliitika koolitusprogrammid puutuvad sama struktuurilisse piirangut kõigi andmete kaitse kontekstides: nad üritavad muuta sügavalt juurdunud käitumismustrid perioodilise õppetundide kaudu. Vaheajad vahel...

Kas olete valmis oma andmeid kaitsma?

Alustage PII anonüümitamist 285+ üksustüübi abil 48 keeles.