Zpět na blogBezpečnost AI

AI je nyní hlavním vektorem úniku dat – co s tím dělat

77 % zaměstnanců vkládá citlivá data do nástrojů AI. Generativní AI nyní tvoří 32 % všech úniků firemních dat. Zjistěte, jak chránit svou organizaci.

February 17, 20268 min čtení
AI securityChatGPTdata leakageenterprise security

Krize úniku dat prostřednictvím AI

V říjnu 2025 zveřejnila společnost LayerX Security zjištění, která by měla znepokojit každého CISO: 77 % zaměstnanců vkládá data do nástrojů GenAI, přičemž 82 % této aktivity pochází z nespravovaných osobních účtů.

Ještě znepokojivější je, že GenAI nyní tvoří 32 % veškerého úniku firemních dat – a stává se tak hlavním vektorem neoprávněného přenosu dat v podnicích.

Nejde o budoucí problém. Děje se to právě teď, každý den, ve vaší organizaci.

Čísla jsou ohromující

ZjištěníDataZdroj
Zaměstnanci vkládající data do AI77 %LayerX 2025
Únik dat prostřednictvím nástrojů AI32 %LayerX 2025
Používání ChatGPT přes nespravované účty67 %LayerX 2025
Denní vkládání přes osobní účty14 na zaměstnanceLayerX 2025
Vkládání obsahující citlivá data3+ denněLayerX 2025

Zaměstnanci v průměru provedou 14 vkládání denně přes osobní účty, přičemž nejméně tři obsahují citlivá data. Tradiční nástroje DLP, postavené na monitorování souborů, tuto aktivitu vůbec nezaznamenají.

Proč zákaz AI nefunguje

Samsung se pokusil zakázat ChatGPT poté, co zaměstnanci unikli zdrojový kód. Nefungovalo to.

Realita je taková, že nástroje AI výrazně zvyšují produktivitu zaměstnanců. Podle výzkumů vývojáři používající AI asistenty dokončují úkoly o 55 % rychleji. Když AI zakážete, zaměstnanci buď:

  1. Stejně ji používají prostřednictvím osobních účtů (67 % to již dělá)
  2. Ztrácejí produktivitu a jsou frustrovaní
  3. Odcházejí ke konkurenci, která AI přijímá

Odpovědí není zákaz – je to ochrana.

Únik dat rozšíření Chrome s 900 000 uživateli

V prosinci 2025 společnost OX Security odkryla dvě škodlivá rozšíření Chrome, která ukradla konverzace z ChatGPT a DeepSeek od více než 900 000 uživatelů.

Jedno z těchto rozšíření mělo od Googlu označení „Doporučeno" – údajný znak důvěryhodnosti.

Rozšíření fungovala takto:

  • Zachytávala chatové konverzace v reálném čase
  • Ukládala data lokálně na zařízeních obětí
  • Každých 30 minut posílala dávky na řídicí servery

Ještě horší: samostatné šetření odhalilo, že rozšíření „bezplatné VPN" s více než 8 miliony stažení zachytávala konverzace s AI od července 2025.

Řešení: Zachytit před odesláním

Jediný způsob, jak bezpečně používat AI a zároveň chránit citlivá data, je anonymizovat PII před tím, než se dostane k modelu AI.

Přesně to dělají rozšíření Chrome a MCP Server od anonym.legal:

Rozšíření Chrome

  • Zachytí text před odesláním do ChatGPT, Claude nebo Gemini
  • Automaticky detekuje a anonymizuje PII (jména, e-maily, rodná čísla atd.)
  • Nahradí citlivá data tokeny: „Jan Novák" → „[PERSON_1]"
  • Deanonymizuje odpovědi AI, takže uvidíte původní jména

MCP Server (pro vývojáře)

  • Integruje se s Claude Desktop, Cursor a VS Code
  • Transparentní proxy – s AI pracujete normálně
  • PII je anonymizováno před odesláním promptů modelu
  • Funguje s vašimi stávajícími pracovními postupy

Co je chráněno

Oba nástroje detekují a anonymizují 285+ typů entit ve 48 jazycích:

  • Osobní: Jména, e-mailové adresy, telefonní čísla, data narození
  • Finanční: Čísla kreditních karet, bankovních účtů, IBAN
  • Státní: Rodná čísla, čísla pasů, řidičských průkazů
  • Zdravotní: Čísla zdravotnické dokumentace, ID pacientů
  • Firemní: ID zaměstnanců, interní čísla účtů

I kdyby byla vaše historie chatu s AI kompromitována (jako u těch 900 000 uživatelů), nebude možné obnovit žádné PII – pouze anonymizované tokeny.

Implementace: 5 minut k ochraně

Rozšíření Chrome

  1. Stáhněte z anonym.legal/features/chrome-extension
  2. Přihlaste se svým účtem anonym.legal
  3. Navštivte ChatGPT, Claude nebo Gemini
  4. Pište normálně – PII je automaticky detekováno a anonymizováno před odesláním

MCP Server (pro Claude Desktop)

Přidejte do souboru claude_desktop_config.json:

{
  "mcpServers": {
    "anonym-legal": {
      "command": "npx",
      "args": ["-y", "@anthropic/mcp-server-anonym-legal"],
      "env": {
        "ANONYM_API_KEY": "váš-api-klíč"
      }
    }
  }
}

Cena nečinnosti

Zvažte, co je v sázce:

  • Finanční data vložená do AI k analýze
  • Informace o zákaznících použité v podpůrných dotazech
  • Zdrojový kód sdílený pro ladění
  • Právní dokumenty sumarizované AI
  • Zdravotní záznamy zpracovávané pro přehledy

Průměrné náklady na únik dat jsou 4,88 milionu dolarů (IBM 2024). Průměrný únik dat ve zdravotnictví nyní stojí 7,42 milionu dolarů (IBM 2025) – méně než 9,77 milionu v roce 2024, ale stále výrazně přesahující všechna ostatní odvětví.

Rozšíření Chrome je zdarma. MCP Server je součástí plánů Pro od 15 €/měsíc.

Závěr

AI tu zůstane. Vaši zaměstnanci ji již používají – otázka je, zda to dělají bezpečně.

Zjištění LayerX jsou jasná: tradiční bezpečnostní přístupy jsou slepé k úniku dat přes AI. Potřebujete nástroje speciálně navržené k ochraně dat před jejich dosažením modely AI.

Začněte chránit svou organizaci ještě dnes:


Zdroje:

Připraveni chránit svá data?

Začněte anonymizovat PII s více než 285 typy entit ve 48 jazycích.