Tagasi BlogisseAI Turvalisus

Alates FEMA-st kuni finantsini: Miks AI poliitika...

77% töötajatest jagavad tundlikke tööandmeid AI tööriistadega vaatamata keelust.

April 4, 20268 min lugemist
AI data governancetechnical controlsChatGPT policy failureChrome Extension DLPenterprise AI security

Kui poliitika kohtub inimese käitumisega

Välismaiste valitsuse peatöövõtja, kes oli FEMA üleujutuse abi taotluste töötlemiseks ajapiiritud, kleepis nimed, aadressid, kontaktandmed ja katastriofide taotlejate tervisandmed ChatGPT-sse, et teavet kiiremini töödelda. Tahe ei olnud pahatahtlik — see oli tootlikkuse otsus, mis tehtud ajapiiritud tingimustes. Tulemus oli valitsuse uurimine, avalik avalikustamine, ja dokumenteeritud juhtum, mis illustreerib poliitika ainsu AI juhtimise tuumamoodust.

77% ettevõtte töötajatest jagavad tundlikke tööandmeid AI tööriistadega vähemalt kord nädalas vaatamata keelust (eSecurity Planet/Cyberhaven 2025). 77% näitaja ei kajastu ei poliitika rikkujate jõuks vaid tegelikkusele selle, kuidas AI tööriistaid on kasutusele võetud: tootlikkuse tööriistadena, mille poole töötajad pöörduvad refleksiivselt ajapiiritud oludes, korduvate ülesannete ees või keeruliste analüüside nõude tõttu.

Cyberhaven Q4 2025 analüüs leidis, et 34,8% kõigist ChatGPT sisenditest sisaldavad konfidentsiaalseid äriandmeid. See näitaja hõlmab töötajaid, kes teavad AI kasutamise poliitikadest ja kellel pole kavatsust neid rikkuda — nad lihtsalt ei kategoriseerinud andmeid, mida kleepsid, "konfidentsiaalseks" kleepimise hetkel.

Poliitika nõuetekohasus probleem

AI kasutamise poliitikad seisavad silmitsi inertsest seadusetevastu lünka. Erinevalt juurdepääsu kontroll poliitikadest (mis saavad tekniliselt jõustada autentimise kaudu) või andmete klassifikatsiooni poliitikadest (mis saavad jõustada e-posti/salvekoha tasandil DLP), ei saa AI kasutamise poliitikad...

Kas olete valmis oma andmeid kaitsma?

Alustage PII anonüümitamist 285+ üksustüübi abil 48 keeles.