Vissza a BlograAI Biztonság

900 000 felhasználó kompromittálva: Hogyan válasszon...

2026 januárjában két rosszindulatú Chrome-bővítményt kaptak rajta 900 000+ felhasználóval, miközben 30 percenként szűrték ki a ChatGPT és DeepSeek...

March 8, 20268 perc olvasás
Chrome extension securitymalicious extensionChatGPT privacyAI data protection

A 2026. januári incidens

2026 januárjában biztonsági kutatók két rosszindulatú Chrome-bővítményt fedeztek fel, amelyek 900 000+ felhasználót kompromittáltak.

A bővítmények neveit szándékosan választották úgy, hogy legitim AI-fejlesztési eszközöknek tűnjenek:

  • „Chat GPT for Chrome with GPT-5, Claude Sonnet & DeepSeek"
  • „AI Chat Assistant for All Sites"

Mindkét bővítmény százezres felhasználói bázissal rendelkezett, és pozitív értékeléseket gyűjtött, mielőtt az OX Security kutatói a rosszindulatú viselkedést azonosították.

Hogyan működtek

A rendszeres kiszűrési hurok

30 percenként:
1. Gyűjti a gyorsítótárazott csevegési adatokat
2. Tömöríti a hasznos terhelést
3. Titkosítja és kódolja (hogy ne tűnjön PII-nek a DLP-eszközökben)
4. Kiszivárog egy tartomány-átirányítón keresztül egy C2-szerverre

A 30 perces intervallum szándékos volt: ritka ahhoz, hogy biztonsági eszközök riasztást adjanak ki a rendellenes adatátvitelre, de elég sűrű ahhoz, hogy a csevegési tartalom teljességét rögzítse.

A detekció elkerülése

A bővítmények technikákat alkalmaztak, amelyek kijátszják a webáruház-ellenőrzést:

  • A rosszindulatú kód a telepítés után feltöltött frissítésekben volt
  • Az adatszűrés a reguláris domaineknek álcázva tűnt
  • Az engedélyek legitimnek tűntek (a csevegésekbe való injektáláshoz olvasási hozzáférés szükséges)

A 67%-os probléma

Az incidensen túlmenően a Koi Security nagyobb vizsgálata megállapította, hogy az AI Chrome-bővítmények 67%-a aktívan gyűjt felhasználói adatokat – valamilyen formában.

Ez magában foglalja:

  • A tárolt csevegési tartalom „javítási célból" küldött bővítménybejegyző adatokat
  • A használati analitikákat, amelyek tartalmaznak egy részletes szemantikai adatot
  • A „visszajelzési" mechanizmusokat, amelyek mintát vesznek csevegési tartalmakból
  • A „személyre szabási" funkciókat, amelyek csevegési előzményadatokat küldenek

Nem mindegyik ezek közül rosszindulatú. De mindet nem tárjuk fel egyértelműen, és a felhasználók általában nem tudják, mi kerül elküldésre.

Az anonym.legal különbsége

Az anonym.legal Chrome-bővítménye az alábbi elvek alapján épül:

1. elv: Helyi PII-feldolgozás

A bővítmény PII-entitás-észlelése az eszközén fut. Semmilyen szöveg nem kerül a szervereinkre, amíg Ön nem dönt a küldésről.

2. elv: Csak anonimizált tokenek

Amikor Ön dönt a szöveg elküldéséről a szerverünkre (az anonimizáláshoz), az a szöveg anonimizált verziója. Soha nem a nyers szöveg.

3. elv: Ellenőrizhető adatáramlás

Az adatvédelmi politikánk pontosan leírja, mi kerül elküldésre és miért. Az API-végpontjaink ellenőrizhetők a DevTools-szal.

4. elv: Nyílt auditok

A harmadik fél általi biztonsági auditok elérhetők az ellenőrzésünkre.

Hogyan értékelje bármely AI adatvédelmi bővítményt

KérdésPiros zászlóZöld zászló
Hol történik a PII-észlelés?„A szervereinkre küldjük"„Helyben az eszközén"
Mit küld el a szervereknek?Homályos válaszPontos technikai leírás
Megkérheti az audit-naplóit?Nincs ilyenIgen, letölthető
Ki az anyavállalat?KivehetetlenEgyértelmű, ellenőrizhető
Harmadik fél audit rendelkezésre áll?NemIgen, linkelt
Töröl-e adatokat kérésre?Nincs garanciaGDPR-kötelezettség

Következtetés

A 900 000 felhasználó kompromittálása egy széleskörű AI adatvédelmi bővítmény ökoszisztéma-problémának csak a jéghegycsúcsa. A piaci ösztönzők ellenirányban hatnak a jó adatvédelemmel: az egyedülállóan adatgyűjtő bővítmények üzleti modellel rendelkeznek.

Az anonym.legal más irányba orientálódik: az üzleti modell az előfizetésen alapul, nem az adaton. Azért dolgozunk, hogy az AI-csevegéseit biztonságban tartsák, mert ezt fizeti.

Készen áll az adatai védelmére?

Kezdje el a PII anonimizálását 285+ entitástípuson 48 nyelven.