Vissza a BlograAI Biztonság

Az AI ma már az #1 adatkiszivárgási vektor – Íme...

Az alkalmazottak 77%-a illeszt be érzékeny adatokat AI eszközökbe. A GenAI ma már a vállalati adatkiszivárgás 32%-áért felelős.

February 17, 20268 perc olvasás
AI securityChatGPTdata leakageenterprise security

Az AI adatszivárgási válság

2025 októberében a LayerX Security olyan megállapításokat tett közzé, amelyeknek minden CISO-t aggodalommal kell eltölteniük: az alkalmazottak 77%-a illeszt be adatokat GenAI eszközökbe, és ebből a tevékenységből 82% nem felügyelt személyes fiókokból származik.

Még aggasztóbb: a GenAI ma már a vállalati adatkiszivárgás 32%-áért felelős – ezzel a #1 vektorrá vált a szervezeten belüli jogosulatlan adatmozgatásban.

Ez nem jövőbeli probléma. Ez most történik, minden nap, az Ön szervezetében.

A számok döbbenetes képet mutatnak

MegállapításAdatForrás
Adatokat AI-ba illesztő alkalmazottak77%LayerX 2025
Adatkiszivárgás AI eszközökön keresztül32%LayerX 2025
ChatGPT használat nem felügyelt fiókokon át67%LayerX 2025
Napi beillesztések személyes fiókokon keresztül14/alkalmazottLayerX 2025
Érzékeny adatot tartalmazó beillesztések3+/napLayerX 2025

Átlagosan az alkalmazottak 14 beillesztést végeznek naponta személyes fiókokon keresztül, amelyből legalább három érzékeny adatot tartalmaz. A hagyományos DLP eszközök, amelyek fájlközpontú monitorozásra épülnek, ezt a tevékenységet észre sem veszik.

Miért nem működik az AI betiltása

A Samsung megpróbálta betiltani a ChatGPT-t, miután alkalmazottak forráskódot szivárogtattak ki. Nem sikerült.

A valóság az, hogy az AI eszközök jelentősen növelik az alkalmazottak produktivitását. Kutatások szerint az AI asszisztenseket használó fejlesztők 55%-kal gyorsabban végzik el a feladatokat. Ha betiltja az AI-t, az alkalmazottak vagy:

  1. Úgyis használják személyes fiókokon keresztül (67% már megteszi)
  2. Elveszítik a produktivitásukat és frusztrálttá válnak
  3. Elmennek olyan versenytársakhoz, akik elfogadják az AI-t

A válasz nem a tiltás – hanem a védelem.

A 900 000 felhasználót érintő Chrome-bővítmény-sebezhetőség

2025 decemberében az OX Security két rosszindulatú Chrome-bővítményt fedezett fel, amelyek 900 000+ felhasználó ChatGPT és DeepSeek beszélgetéseit lopták el.

Az egyik bővítményen ott volt a Google „Kiemelt" jelvénye – az állítólagos megbízhatóság jelzése.

A bővítmények a következőképpen működtek:

  • Valós időben elfogták a csevegési beszélgetéseket
  • Az adatokat helyben tárolták az áldozatok gépein
  • 30 percenként küldték el a kötegelt adatokat parancs- és vezérlőszerverekre

Még rosszabb: egy külön vizsgálat „ingyenes VPN" bővítményeket talált, amelyeket 8 millió letöltés után kaptak el, és amelyek 2025 júliusa óta gyűjtötték az AI-beszélgetéseket.

A megoldás: Beküldés előtt azonosítsa a PII-adatokat

Az egyetlen módja az AI biztonságos használatának, miközben megvédi az érzékeny adatokat, az, ha anonimizálja a személyes adatokat (PII) még azelőtt, hogy az AI modellhez kerülnének.

Pontosan ezt teszi az anonym.legal Chrome-bővítménye és MCP-kiszolgálója:

Chrome-bővítmény

  • Elfogja a szöveget, mielőtt elküldi azt ChatGPT-nek, Claude-nak vagy Gemininak
  • Automatikusan észleli és anonimizálja a PII-t (nevek, e-mailek, TAJ-számok stb.)
  • Érzékeny adatokat tokenekkel helyettesíti: „Kovács János" → „[PERSON_1]"
  • Az AI válaszait deanonimizálja, hogy az eredeti neveket lássa

MCP-kiszolgáló (fejlesztőknek)

  • Integrálódik a Claude Desktop, Cursor és VS Code alkalmazásokkal
  • Átlátszó proxy – normálisan kommunikál az AI-val
  • A PII anonimizálva lesz, mielőtt a promptok elérik a modellt
  • A meglévő munkafolyamatokkal működik

Mi kap védelmet

Mindkét eszköz 285+ entitástípust észlel és anonimizál 48 nyelven:

  • Személyes: nevek, e-mail-címek, telefonszámok, születési dátumok
  • Pénzügyi: hitelkártyaszámok, bankszámlák, IBAN-ok
  • Kormányzati: TAJ-számok, útlevélszámok, jogosítványok
  • Egészségügyi: kórházi nyilvántartási számok, betegazonosítók
  • Vállalati: alkalmazotti azonosítók, belső számlaszámok

Még ha AI-csevegési előzményei kompromittálódnak is (mint annak a 900 000 felhasználónak), nem lesz visszanyerhető PII – csak anonimizált tokenek.

Megvalósítás: 5 perc a védelemig

Chrome-bővítmény

  1. Töltse le az anonym.legal/features/chrome-extension oldalról
  2. Jelentkezzen be anonym.legal fiókjával
  3. Látogassa meg a ChatGPT-t, Claude-ot vagy Geminit
  4. Írjon normálisan – a PII automatikusan észlelésre kerül és anonimizálva lesz elküldés előtt

MCP-kiszolgáló (Claude Desktophoz)

Adja hozzá a claude_desktop_config.json fájlhoz:

{
  "mcpServers": {
    "anonym-legal": {
      "command": "npx",
      "args": ["-y", "@anthropic/mcp-server-anonym-legal"],
      "env": {
        "ANONYM_API_KEY": "az-ön-api-kulcsa"
      }
    }
  }
}

A tétlenség ára

Vegye figyelembe, mi van kockán:

  • Pénzügyi adatok AI-ba illesztve elemzés céljából
  • Ügyfélinformációk támogatási lekérdezésekben
  • Forráskód hibakeresés céljából megosztva
  • Jogi dokumentumok AI által összefoglalva
  • Egészségügyi nyilvántartások elemzés céljából feldolgozva

Egyetlen adatvédelmi incidens átlagos költsége 4,88 millió dollár (IBM 2024). Az átlagos egészségügyi incidens ma már 7,42 millió dollárba kerül (IBM 2025) – csökkent a 2024-es 9,77 millióról, de még mindig messze meghaladja az összes többi iparágat.

A Chrome-bővítmény ingyenes. Az MCP-kiszolgáló a Pro csomagban érhető el, havonta 15 €-tól.

Következtetés

Az AI marad. Alkalmazottai már használják – a kérdés az, hogy biztonságosan teszik-e.

A LayerX megállapítások egyértelművé teszik: a hagyományos biztonsági megközelítések vakok az AI adatkiszivárgással szemben. Kifejezetten arra tervezett eszközökre van szüksége, amelyek az adatokat azelőtt védik meg, hogy az AI modellekhez kerülnének.

Kezdje meg szervezete védelmét még ma:


Források:

Készen áll az adatai védelmére?

Kezdje el a PII anonimizálását 285+ entitástípuson 48 nyelven.