Powrót do blogaBezpieczeństwo AI

900 000 użytkowników skompromitowanych...

W styczniu 2026 roku dwa złośliwe rozszerzenia Chrome z ponad 900 000 użytkowników zostały przyłapane na wykradaniu rozmów ChatGPT i DeepSeek co 30...

March 8, 20268 min czytania
Chrome extension securitymalicious extensionChatGPT privacyAI data protection

Incydent z stycznia 2026 roku

W styczniu 2026 roku badacze bezpieczeństwa odkryli dwa złośliwe rozszerzenia Chrome, które skompromitowały ponad 900 000 użytkowników.

Nazwy rozszerzeń zostały celowo wybrane, aby wyglądały na legalne narzędzia do ulepszania AI:

  • "Chat GPT for Chrome with GPT-5, Claude Sonnet & DeepSeek AI" — ponad 600 000 użytkowników
  • "AI Sidebar with Deepseek, ChatGPT, Claude and more" — ponad 300 000 użytkowników

Oba rozszerzenia robiły to samo: wykradały pełne rozmowy ChatGPT i DeepSeek co 30 minut na zdalny serwer dowodzenia i kontroli.

Dane, które wypływały, obejmowały kod źródłowy, informacje umożliwiające identyfikację osobistą, kwestie prawne będące przedmiotem dyskusji, strategie biznesowe oraz dane finansowe. Wszystko, co użytkownicy wpisali w swoich sesjach czatu AI — wszystko, co uważali za prywatne — było przesyłane do nieznanych stron.

Jak rozszerzenia omijały sygnały zaufania

Rozszerzenia prosiły o pozwolenie na "zbieranie anonimowych, nieidentyfikowalnych danych analitycznych" — język zaprojektowany tak, aby wydawał się nieszkodliwy podczas przeglądu uprawnień.

W rzeczywistości przechwytywały pełną treść rozmów AI. Pozwolenie na analitykę było pojazdem; wykradanie rozmów AI było ładunkiem.

Ta technika — używanie pozornie nieszkodliwych uprawnień do umożliwienia szkodliwego zbierania danych — reprezentuje operacyjny podręcznik, który sprawił, że kategoria zagrożeń związanych z rozszerzeniami Chrome jest tak uporczywa. Użytkownicy, którzy nigdy nie kliknęliby w link phishingowy, celowo instalowali te rozszerzenia z Chrome Web Store, ponieważ wydawały się oferować korzyści związane z produktywnością AI.

Szerszy wzór: 67% rozszerzeń AI zbiera Twoje dane

Incydent z stycznia 2026 roku nie był wyjątkiem. Badania przeprowadzone przez Incogni wykazały, że 67% rozszerzeń AI Chrome aktywnie zbiera dane użytkowników — liczba ta została potwierdzona w wielu niezależnych analizach ekosystemu rozszerzeń.

To jest podstawowy paradoks rynku rozszerzeń dotyczących prywatności AI: rozszerzenia, które użytkownicy instalują specjalnie w celu ochrony swojej prywatności AI, w większości przypadków zbierają te same dane.

Rynek stworzył kategorię — narzędzia do prywatności AI dla przeglądarek — ale nie stworzył niezawodnych mechanizmów, które pozwoliłyby użytkownikom zweryfikować, czy dane rozszerzenie rzeczywiście zapewnia prywatność, czy tylko twierdzi, że tak jest. Efekt: rynek, w którym narzędzie zainstalowane w celu ochrony samo jest wektorem ataku.

Architektura, która odróżnia bezpieczne od niebezpiecznych

Incydent z stycznia 2026 roku ilustruje konkretną różnicę techniczną, którą użytkownicy powinni zrozumieć przy ocenie jakiegokolwiek rozszerzenia Chrome związanego z AI.

Niebezpieczna architektura — routing przez serwery rozszerzenia:

  1. Użytkownik wpisuje do ChatGPT
  2. Rozszerzenie przechwytuje tekst
  3. Rozszerzenie przesyła tekst do swojego serwera backendowego w celu "przetworzenia"
  4. Serwer backendowy zwraca przetworzony tekst
  5. Rozszerzenie przesyła do ChatGPT

W tej architekturze każdy prompt przechodzi przez infrastrukturę dewelopera rozszerzenia. Deweloper rozszerzenia ma pełny dostęp do treści rozmowy. Jeśli rozszerzenie jest złośliwe (lub zostanie później przejęte przez złośliwego aktora, lub zostanie naruszone), cała ta treść jest narażona.

Bezpieczna architektura — przetwarzanie lokalne tylko:

  1. Użytkownik wpisuje do ChatGPT
  2. Rozszerzenie przechwytuje tekst
  3. Rozszerzenie przetwarza tekst lokalnie w przeglądarce (używając tego samego środowiska uruchomieniowego JavaScript, które napędza rozszerzenie)
  4. Przetworzony tekst jest przesyłany bezpośrednio do ChatGPT

W tej architekturze nic nie opuszcza przeglądarki użytkownika, z wyjątkiem ostatecznego przetworzonego tekstu przesłanego do usługi AI. Infrastruktura dewelopera rozszerzenia nigdy nie znajduje się w ścieżce danych.

Pytanie, które należy zadać każdemu rozszerzeniu dotyczącym prywatności AI: gdzie odbywa się przetwarzanie? Jeśli odpowiedź dotyczy serwerów samego rozszerzenia, Twoje dane przepływają przez stronę trzecią.

Pięć pytań do zadania przed zainstalowaniem rozszerzenia AI dotyczącego prywatności

Biorąc pod uwagę, że 67% rozszerzeń AI Chrome zbiera dane użytkowników (badania Incogni), oraz że złośliwe rozszerzenia mogą pojawić się w Chrome Web Store z setkami tysięcy użytkowników, ramy oceny mają znaczenie.

1. Gdzie przetwarzane jest wykrywanie PII? Zapytaj bezpośrednio lub znajdź w polityce prywatności: czy wykrywanie PII odbywa się lokalnie w przeglądarce, czy tekst jest wysyłany do serwerów backendowych rozszerzenia w celu analizy? Przetwarzanie lokalne oznacza, że deweloper rozszerzenia nigdy nie widzi Twojego tekstu.

2. Co się dzieje z treścią rozmowy? Rozszerzenia, które "chronią" poprzez routing przez swoje własne serwery proxy, mają pełny dostęp do wszystkiego, co wpisujesz. Rozszerzenia, które modyfikują tekst lokalnie i przesyłają bezpośrednio do usługi AI, nie mają takiego dostępu.

3. Kto jest zweryfikowanym wydawcą? System weryfikacji wydawców Chrome Web Store jest niedoskonały — rozszerzenia z stycznia 2026 roku przeszły — ale zweryfikowany wydawca z ustaloną tożsamością i modelem biznesowym niezależnym od zbierania danych jest bardziej godny zaufania niż anonimowy wydawca z darmowym rozszerzeniem i brakiem widocznego modelu przychodów.

4. Czy istnieje niezależna certyfikacja bezpieczeństwa? Certyfikacja ISO 27001 obejmuje system zarządzania bezpieczeństwem informacji dostawcy, w tym praktyki rozwoju i dystrybucji ich rozszerzeń. Niezależne audyty bezpieczeństwa zapewniają zewnętrzną weryfikację twierdzeń.

5. Jaki jest model biznesowy? Najtrwalszy sygnał: jak ten deweloper darmowego rozszerzenia zarabia pieniądze? Jeśli nie ma widocznego modelu przychodów, dane użytkowników prawdopodobnie są produktem. Rozszerzenie, które jest częścią płatnego produktu SaaS z weryfikowalnym modelem biznesowym, ma mniejszą motywację do potajemnego monetyzowania danych użytkowników.

Co ujawnia incydent z stycznia 2026 roku o bezpieczeństwie AI

Ponad 900 000 skompromitowanych użytkowników w styczniu 2026 roku nie było nieskomplikowanych. Byli to profesjonaliści, którzy poszukiwali narzędzi do produktywności AI, którzy chcieli ochrony prywatności dla swoich interakcji z AI i którzy zainstalowali to, co wydawało się być legalnymi narzędziami z Chrome Web Store.

Atak zadziałał, ponieważ:

Rozszerzenia oferowały rzeczywistą funkcjonalność: Nie były czysto złośliwe — oferowały funkcje związane z AI obok wykradania. To sprawiło, że były funkcjonalnie nieodróżnialne od legalnych narzędzi podczas casualnego użycia.

Sygnały zaufania były wytwarzane: Setki tysięcy użytkowników tworzą dowód społeczny. Użytkownicy, którzy widzieli 600 000 instalacji, byli bardziej skłonni do zainstalowania, a nie mniej.

Prośba o pozwolenie została zaprojektowana tak, aby nie wzbudzać obaw: "Anonimowe, nieidentyfikowalne analizy" to dokładnie ten rodzaj języka uprawnień, który użytkownicy zatwierdzają bez wnikliwej analizy.

Wykradanie było zaplanowane w celu minimalizacji wykrycia: 30-minutowe interwały są wystarczająco częste, aby uchwycić wszystkie rozmowy, ale na tyle rzadkie, aby uniknąć wywołania monitorowania bezpieczeństwa opartego na anomaliach.

Ramy zaufania po incydencie

Po incydencie z stycznia 2026 roku zespoły IT w przedsiębiorstwach oceniające rozszerzenia dotyczące prywatności AI do wdrożenia w swojej kadrze powinny zastosować bardziej rygorystyczne ramy zaufania niż te, które istniały wcześniej.

Minimalne wymagane elementy:

  • Architektura przetwarzania lokalnego — zweryfikowana przez przegląd techniczny lub niezależny audyt, a nie tylko twierdzona w marketingu
  • Weryfikacja tożsamości wydawcy — ustalona firma z weryfikowalnym modelem biznesowym i historią
  • Niezależna certyfikacja bezpieczeństwa — ISO 27001 lub równoważna
  • Polityka prywatności, która szczegółowo odnosi się do przepływów danych rozszerzenia — w tym co jest zbierane, gdzie jest wysyłane i w jakich okolicznościach
  • Brak routingu przez serwery dewelopera rozszerzenia dla podstawowej funkcjonalności prywatności

Organizacje, które wdrażają rozszerzenia AI dla setek lub tysięcy pracowników, powinny również rozważyć:

  • Regularne audyty zainstalowanych rozszerzeń pod kątem zachowań związanych z wykradaniem danych
  • Monitorowanie sieci w celu wykrywania niespodziewanych połączeń zewnętrznych z procesów przeglądarki
  • Listy dozwolonych rozszerzeń wdrażanych za pośrednictwem polityki Chrome Enterprise

Incydent z stycznia 2026 roku był ostrzeżeniem. Wskaźnik zbierania danych na poziomie 67% wśród rozszerzeń AI sugeruje, że ostrzeżenie było uzasadnione.


Rozszerzenie Chrome anonym.legal przetwarza wykrywanie PII lokalnie — żaden z treści rozmowy nie jest przesyłany na serwery anonym.legal podczas wykrywania PII. Anonimizacja odbywa się w przeglądarce przed przesłaniem zmodyfikowanego promptu do usługi AI. Opublikowane przez anonym.legal, certyfikowane ISO 27001.

Źródła:

Gotowy, aby chronić swoje dane?

Rozpocznij anonimizację PII z 285+ typami podmiotów w 48 językach.