Az AI adatszivárgási válság
2025 októberében a LayerX Security olyan megállapításokat tett közzé, amelyeknek minden CISO-t aggodalommal kell eltölteniük: az alkalmazottak 77%-a illeszt be adatokat GenAI eszközökbe, és ebből a tevékenységből 82% nem felügyelt személyes fiókokból származik.
Még aggasztóbb: a GenAI ma már a vállalati adatkiszivárgás 32%-áért felelős – ezzel a #1 vektorrá vált a szervezeten belüli jogosulatlan adatmozgatásban.
Ez nem jövőbeli probléma. Ez most történik, minden nap, az Ön szervezetében.
A számok döbbenetes képet mutatnak
| Megállapítás | Adat | Forrás |
|---|---|---|
| Adatokat AI-ba illesztő alkalmazottak | 77% | LayerX 2025 |
| Adatkiszivárgás AI eszközökön keresztül | 32% | LayerX 2025 |
| ChatGPT használat nem felügyelt fiókokon át | 67% | LayerX 2025 |
| Napi beillesztések személyes fiókokon keresztül | 14/alkalmazott | LayerX 2025 |
| Érzékeny adatot tartalmazó beillesztések | 3+/nap | LayerX 2025 |
Átlagosan az alkalmazottak 14 beillesztést végeznek naponta személyes fiókokon keresztül, amelyből legalább három érzékeny adatot tartalmaz. A hagyományos DLP eszközök, amelyek fájlközpontú monitorozásra épülnek, ezt a tevékenységet észre sem veszik.
Miért nem működik az AI betiltása
A Samsung megpróbálta betiltani a ChatGPT-t, miután alkalmazottak forráskódot szivárogtattak ki. Nem sikerült.
A valóság az, hogy az AI eszközök jelentősen növelik az alkalmazottak produktivitását. Kutatások szerint az AI asszisztenseket használó fejlesztők 55%-kal gyorsabban végzik el a feladatokat. Ha betiltja az AI-t, az alkalmazottak vagy:
- Úgyis használják személyes fiókokon keresztül (67% már megteszi)
- Elveszítik a produktivitásukat és frusztrálttá válnak
- Elmennek olyan versenytársakhoz, akik elfogadják az AI-t
A válasz nem a tiltás – hanem a védelem.
A 900 000 felhasználót érintő Chrome-bővítmény-sebezhetőség
2025 decemberében az OX Security két rosszindulatú Chrome-bővítményt fedezett fel, amelyek 900 000+ felhasználó ChatGPT és DeepSeek beszélgetéseit lopták el.
Az egyik bővítményen ott volt a Google „Kiemelt" jelvénye – az állítólagos megbízhatóság jelzése.
A bővítmények a következőképpen működtek:
- Valós időben elfogták a csevegési beszélgetéseket
- Az adatokat helyben tárolták az áldozatok gépein
- 30 percenként küldték el a kötegelt adatokat parancs- és vezérlőszerverekre
Még rosszabb: egy külön vizsgálat „ingyenes VPN" bővítményeket talált, amelyeket 8 millió letöltés után kaptak el, és amelyek 2025 júliusa óta gyűjtötték az AI-beszélgetéseket.
A megoldás: Beküldés előtt azonosítsa a PII-adatokat
Az egyetlen módja az AI biztonságos használatának, miközben megvédi az érzékeny adatokat, az, ha anonimizálja a személyes adatokat (PII) még azelőtt, hogy az AI modellhez kerülnének.
Pontosan ezt teszi az anonym.legal Chrome-bővítménye és MCP-kiszolgálója:
Chrome-bővítmény
- Elfogja a szöveget, mielőtt elküldi azt ChatGPT-nek, Claude-nak vagy Gemininak
- Automatikusan észleli és anonimizálja a PII-t (nevek, e-mailek, TAJ-számok stb.)
- Érzékeny adatokat tokenekkel helyettesíti: „Kovács János" → „[PERSON_1]"
- Az AI válaszait deanonimizálja, hogy az eredeti neveket lássa
MCP-kiszolgáló (fejlesztőknek)
- Integrálódik a Claude Desktop, Cursor és VS Code alkalmazásokkal
- Átlátszó proxy – normálisan kommunikál az AI-val
- A PII anonimizálva lesz, mielőtt a promptok elérik a modellt
- A meglévő munkafolyamatokkal működik
Mi kap védelmet
Mindkét eszköz 285+ entitástípust észlel és anonimizál 48 nyelven:
- Személyes: nevek, e-mail-címek, telefonszámok, születési dátumok
- Pénzügyi: hitelkártyaszámok, bankszámlák, IBAN-ok
- Kormányzati: TAJ-számok, útlevélszámok, jogosítványok
- Egészségügyi: kórházi nyilvántartási számok, betegazonosítók
- Vállalati: alkalmazotti azonosítók, belső számlaszámok
Még ha AI-csevegési előzményei kompromittálódnak is (mint annak a 900 000 felhasználónak), nem lesz visszanyerhető PII – csak anonimizált tokenek.
Megvalósítás: 5 perc a védelemig
Chrome-bővítmény
- Töltse le az anonym.legal/features/chrome-extension oldalról
- Jelentkezzen be anonym.legal fiókjával
- Látogassa meg a ChatGPT-t, Claude-ot vagy Geminit
- Írjon normálisan – a PII automatikusan észlelésre kerül és anonimizálva lesz elküldés előtt
MCP-kiszolgáló (Claude Desktophoz)
Adja hozzá a claude_desktop_config.json fájlhoz:
{
"mcpServers": {
"anonym-legal": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-server-anonym-legal"],
"env": {
"ANONYM_API_KEY": "az-ön-api-kulcsa"
}
}
}
}
A tétlenség ára
Vegye figyelembe, mi van kockán:
- Pénzügyi adatok AI-ba illesztve elemzés céljából
- Ügyfélinformációk támogatási lekérdezésekben
- Forráskód hibakeresés céljából megosztva
- Jogi dokumentumok AI által összefoglalva
- Egészségügyi nyilvántartások elemzés céljából feldolgozva
Egyetlen adatvédelmi incidens átlagos költsége 4,88 millió dollár (IBM 2024). Az átlagos egészségügyi incidens ma már 7,42 millió dollárba kerül (IBM 2025) – csökkent a 2024-es 9,77 millióról, de még mindig messze meghaladja az összes többi iparágat.
A Chrome-bővítmény ingyenes. Az MCP-kiszolgáló a Pro csomagban érhető el, havonta 15 €-tól.
Következtetés
Az AI marad. Alkalmazottai már használják – a kérdés az, hogy biztonságosan teszik-e.
A LayerX megállapítások egyértelművé teszik: a hagyományos biztonsági megközelítések vakok az AI adatkiszivárgással szemben. Kifejezetten arra tervezett eszközökre van szüksége, amelyek az adatokat azelőtt védik meg, hogy az AI modellekhez kerülnének.
Kezdje meg szervezete védelmét még ma:
- Chrome-bővítmény telepítése (ingyenes)
- MCP-kiszolgáló beállítása (Pro csomag)
- Összes funkció megtekintése
Források: