Kui poliitika kohtub inimese käitumisega
Välismaiste valitsuse peatöövõtja, kes oli FEMA üleujutuse abi taotluste töötlemiseks ajapiiritud, kleepis nimed, aadressid, kontaktandmed ja katastriofide taotlejate tervisandmed ChatGPT-sse, et teavet kiiremini töödelda. Tahe ei olnud pahatahtlik — see oli tootlikkuse otsus, mis tehtud ajapiiritud tingimustes. Tulemus oli valitsuse uurimine, avalik avalikustamine, ja dokumenteeritud juhtum, mis illustreerib poliitika ainsu AI juhtimise tuumamoodust.
77% ettevõtte töötajatest jagavad tundlikke tööandmeid AI tööriistadega vähemalt kord nädalas vaatamata keelust (eSecurity Planet/Cyberhaven 2025). 77% näitaja ei kajastu ei poliitika rikkujate jõuks vaid tegelikkusele selle, kuidas AI tööriistaid on kasutusele võetud: tootlikkuse tööriistadena, mille poole töötajad pöörduvad refleksiivselt ajapiiritud oludes, korduvate ülesannete ees või keeruliste analüüside nõude tõttu.
Cyberhaven Q4 2025 analüüs leidis, et 34,8% kõigist ChatGPT sisenditest sisaldavad konfidentsiaalseid äriandmeid. See näitaja hõlmab töötajaid, kes teavad AI kasutamise poliitikadest ja kellel pole kavatsust neid rikkuda — nad lihtsalt ei kategoriseerinud andmeid, mida kleepsid, "konfidentsiaalseks" kleepimise hetkel.
Poliitika nõuetekohasus probleem
AI kasutamise poliitikad seisavad silmitsi inertsest seadusetevastu lünka. Erinevalt juurdepääsu kontroll poliitikadest (mis saavad tekniliselt jõustada autentimise kaudu) või andmete klassifikatsiooni poliitikadest (mis saavad jõustada e-posti/salvekoha tasandil DLP), ei saa AI kasutamise poliitikad...