Problém riešenia jedného rizika súladu vytváraním ďalšieho
Organizácie, ktoré internalizovali riziko úniku údajov nástrojov AI, často implementujú logiku-zdajúce sa opravy: anonymizujú citlivý obsah pred dosťou k poskytovateľom AI, používajúc trvalú alebo jednosmerné anonymizáciu, ktorá nemôže byť zvrátená.
Logika je zdrvujúca na bezpečnostnej strane. Analýza Cyberhaven Q4 2025 zistila, že 34,8% obsahu vloženého do ChatGPT obsahuje citlivé informácie. Výskum Ponemon Institute 2024 zariadil, že priemerná cena úniku údajov AI je $2,1 milióna. Výskum od eSecurity Planet a Cyberhaven zistil, že 77% zamestnancov delí citlivé údaje s nástrojmi AI týždenne. Riziko je skutočné, časté a drahé.
Ale trvalá anonymizácia—nezvratný jednosmerný hashing, deštruktívna redakcia alebo pseudonymizácia bez uchovávania kľúčov—rieši problém bezpečnosti AI pri vytváraní iného: spoliacie dôkazov.
Pre organizácie podliehajúce sporu, regulačnému vyšetreniu alebo povinnostiam zistenia, trvalé zničenie schopnosti obnoviť pôvodné údaje zo svojej anonymnej reprezentácie môže predstavovať spoliatia podľa federálnych a štátnych pravidiel zistenia. Dokument, ktorý bol trvale anonymný a z ktorého nemožno obnoviť pôvodné informácie, môže byť považovaný za zničený dôkaz.