Povratak na BlogSigurnost AI-a

Umjetna inteligencija je sada #1 vektor za...

77% zaposlenika paste osjetljive podatke u AI alate. GenAI sada čini 32% cijele korporativne eksfiltracije podataka.

February 17, 20268 min čitanja
AI securityChatGPTdata leakageenterprise security

Kriza eksfiltracije AI podataka

U listopadu 2025., LayerX Security objavio je nalaze koji bi trebali zabrinuti svakog CISO-a: 77% zaposlenika paste podatke u GenAI alate, od čega 82% aktivnosti dolazi s neupravnih osobnih računa.

Još zabrinjavajuće: GenAI sada čini 32% cijele korporativne eksfiltracije podataka—što ga čini #1 vektorom za neovlaštenu kretnju podataka u poduzeću.

Ovo nije budući problem. Događa se baš sada, svaki dan, u vašoj organizaciji.

Brojevi su zapanjujući

NalazPodaciIzvor
Zaposlenici koji paste podatke u AI77%LayerX 2025
Eksfiltracija podataka preko AI32%LayerX 2025
ChatGPT korištenje preko neupravnih računa67%LayerX 2025
Dnevne paste preko osobnih računa14 po zaposlenikuLayerX 2025
Paste s osjetljivim podacima3+ po danuLayerX 2025

U prosjeku zaposlenici izvršavaju 14 paste dnevno preko osobnih računa, s najmanje tri koja sadrže osjetljive podatke. Tradicionalni DLP alati, izgrađeni oko praćenja datoteka, čak ne registriraju ovu aktivnost.

Zašto zabrana AI ne funkcionira

Samsung je pokušao zabraniti ChatGPT nakon što su zaposlenici procurili izvorni kod. Nije funkcioniralo.

Realnost je da AI alati čine zaposlenike značajno produktivnijima. Prema istraživanju, razvijači koji koriste AI asistente dovršavaju zadatke 55% brže. Kada zabranite AI, zaposlenici:

  1. Koriste ga ionako preko osobnih računa (67% već radi)
  2. Gube produktivnost i postaju frustrirani
  3. Odlaze konkurentima koji prigrljuju AI

Odgovor nije prohibicija—to je zaštita.

Rješenje: Zaštita umjesto zabrane

Umjesto bandy AI-a, poduzeća trebaju:

  1. Praćenje u realnom vremenu — detektirati kada su PII/osjetljivi podaci u procesu biti proslijeđeni AI
  2. Automatizirano rektifikovanje — maskirati ili anonimizirati osjetljive podatke prije nego što dospiju do AI
  3. Edukacija korisnika — obavijestiti zaposlenike što je sigurno dijeliti s AI
  4. Compliance kontrole — dokazati regulatorima (GDPR, HIPAA) da su zaštite na mjestu

Spremni za zaštitu vaših podataka?

Započnite anonimizaciju PII-a s 285+ vrsta entiteta na 48 jezika.