Kriza eksfiltracije AI podataka
U listopadu 2025., LayerX Security objavio je nalaze koji bi trebali zabrinuti svakog CISO-a: 77% zaposlenika paste podatke u GenAI alate, od čega 82% aktivnosti dolazi s neupravnih osobnih računa.
Još zabrinjavajuće: GenAI sada čini 32% cijele korporativne eksfiltracije podataka—što ga čini #1 vektorom za neovlaštenu kretnju podataka u poduzeću.
Ovo nije budući problem. Događa se baš sada, svaki dan, u vašoj organizaciji.
Brojevi su zapanjujući
| Nalaz | Podaci | Izvor |
|---|---|---|
| Zaposlenici koji paste podatke u AI | 77% | LayerX 2025 |
| Eksfiltracija podataka preko AI | 32% | LayerX 2025 |
| ChatGPT korištenje preko neupravnih računa | 67% | LayerX 2025 |
| Dnevne paste preko osobnih računa | 14 po zaposleniku | LayerX 2025 |
| Paste s osjetljivim podacima | 3+ po danu | LayerX 2025 |
U prosjeku zaposlenici izvršavaju 14 paste dnevno preko osobnih računa, s najmanje tri koja sadrže osjetljive podatke. Tradicionalni DLP alati, izgrađeni oko praćenja datoteka, čak ne registriraju ovu aktivnost.
Zašto zabrana AI ne funkcionira
Samsung je pokušao zabraniti ChatGPT nakon što su zaposlenici procurili izvorni kod. Nije funkcioniralo.
Realnost je da AI alati čine zaposlenike značajno produktivnijima. Prema istraživanju, razvijači koji koriste AI asistente dovršavaju zadatke 55% brže. Kada zabranite AI, zaposlenici:
- Koriste ga ionako preko osobnih računa (67% već radi)
- Gube produktivnost i postaju frustrirani
- Odlaze konkurentima koji prigrljuju AI
Odgovor nije prohibicija—to je zaštita.
Rješenje: Zaštita umjesto zabrane
Umjesto bandy AI-a, poduzeća trebaju:
- Praćenje u realnom vremenu — detektirati kada su PII/osjetljivi podaci u procesu biti proslijeđeni AI
- Automatizirano rektifikovanje — maskirati ili anonimizirati osjetljive podatke prije nego što dospiju do AI
- Edukacija korisnika — obavijestiti zaposlenike što je sigurno dijeliti s AI
- Compliance kontrole — dokazati regulatorima (GDPR, HIPAA) da su zaštite na mjestu