Takaisin BlogiinAI Turvallisuus

3.8 Päivittäistä PII-altistumista, Joista Tukitiimisi...

Jokainen ChatGPT:tä käyttävä tukihenkilö tekee keskimäärin 3.8 arkaluontoista tietoa sisältävää liittämistä päivässä.

April 18, 20268 min lukuaika
accidental PII exposuresupport team ChatGPTCyberhaven 3.8 pastesworkflow PII protectionGDPR daily exposure

Päivittäinen Altistumislaskenta

Cyberhavenin tutkimus osoitti, että yritysten työntekijät tekevät keskimäärin 3.8 arkaluontoista tietoa sisältävää liittämistä ChatGPT:hen käyttäjää kohti päivässä. 100 hengen asiakastukitiimille tämä luku tarkoittaa 380 tapausta arkaluontoista tietoa, joka päätyy ChatGPT:hen päivittäin — jokainen tapaus voi mahdollisesti muodostaa GDPR:n tietojen minimointivelvoitteiden rikkomuksen, jonka mukaan henkilötietojen on oltava "riittäviä, olennaisia ja rajoitettuja siihen, mikä on tarpeellista."

Luku 3.8 ei ole luku työntekijöistä, jotka sivuuttavat politiikan. Se heijastaa tavallista työnkulku käyttäytymistä: agentit kopioivat asiakaskirjeenvaihtoa luonnostellakseen vastauksia, liittävät valitustekstiä luodakseen empaattisia seurauksia, sisällyttävät tilitietoja saadakseen kontekstiin perustuvia ehdotuksia. Jokainen liittäminen on laillinen tuottavuustoimenpide, joka sattumalta sisältää henkilötietoja. Työntekijä ei päättänyt altistaa asiakastietoja; altistuminen oli seurausta päätöksestä käyttää AI-työkalua tehokkaasti.

Vuoden 2024 EU:n tarkastus havaitsi, että 63% ChatGPT:n käyttäjätiedoista sisälsi henkilötietoja. Vain 22% käyttäjistä tiesi, että he voivat kieltäytyä tietojen keräämisestä ChatGPT:n asetusten kautta. Yhdistelmä — suurin osa tiedoista sisältää PII:tä, suurin osa käyttäjistä ei ole tietoisia hallintakeinoista — tuottaa järjestelmällistä päivittäistä altistumista laajassa mittakaavassa kaikissa organisaatioissa, jotka eivät ole toteuttaneet teknisiä hallintakeinoja.

Miksi Käyttäytymistä Ei Voida Kouluttaa Pois

Kopioi-liitä-työnkulku on syvästi tottumuksenomaista. Käyttäjät ovat kopioineet ja liittäneet tekstiä perus tietokonevuorovaikutuksena vuosikymmenten ajan. AI-chatbotin lisääminen liitetyn tekstin kohteeksi ei muuttanut peruskäyttäytymistä; se laajensi vakiintunutta kaavaa uuteen kohteeseen.

Politiikkakoulutus, joka sanoo "älä liitä asiakastietoja ChatGPT:hen", vaatii työntekijöitä tekemään luokittelupäätöksen — "sisältääkö tämä teksti PII:tä?" — tottumukselliseen toimintaan, joka ei luonnollisesti sisällä taukoa. Koulutuksen vaikutus heikkenee, kun käyttäytyminen palaa tottumukseen. Jokainen yksittäinen liittämispäätös on matalan riskin mikro-päätös; 380 päivittäisen päätöksen kumulatiivinen vaikutus on järjestelmällinen vaatimustenmukaisuusrisk, jota politiikkakoulutus ei voi luotettavasti käsitellä.

Tekninen ratkaisu toimii kerroksella, jossa tottumus muodostuu: liittämistoiminnossa itsessään. Chrome-laajennus katkaisee leikepöydän sisällön liittämisen hetkellä, ennen kuin sisältö saavuttaa syöttökentän. Katkaisu ei ole politiikan täytäntöönpanon este (käyttäjät voivat aina ohittaa) — se on läpinäkyvyysväline. Esikatseluikkuna näyttää työntekijälle, mitä havaittiin, antaen heille hetken näkyvyyttä luokittelupäätökseen ennen jatkamista.

Saksalaisen verkkokaupan asiakastukitiimin johtajalle, joka luonnostelee vastauksia asiakasvalituksiin: työnkulku pysyy "kopioi valitus, liitä ChatGPT:hen, luo vastaus." Chrome-laajennus lisää 2 sekunnin tauon, jolloin agentti näkee, että nimet, osoitteet ja tilausnumerot havaittiin ja anonymisoidaan ennen lähettämistä. Agentti napsauttaa jatka. Työnkulku jatkuu. Vaatimustenmukaisuusrikkomusta ei tapahdu.

Lähteet:

Valmiina suojaamaan tietojasi?

Aloita PII-anonymisointi yli 285 entiteettityypillä 48 kielellä.