Prevenció vs. detecció: Per què l'anonimització de PII en temps real és l'única defensa efectiva contra fuites de dades de IA
L'incident de Samsung ChatGPT de març de 2023 il·lustra la limitació fonamental dels controls de seguretat post-hoc: un enginyer de Samsung va enganxar codi font propietari a ChatGPT abans que qualsevol control de DLP pogués actuar.
Els empleats de Samsung van enganxar dades propietàries: codi font, documentació interna, especificacions de xip. OpenAI va mantenir les dades durant 30 dies per a «millora del model». Samsung havia d'anar públicament i admetre l'incident de seguretat.
L'incident va passar a causa de la falta de prevenció en temps real. Cap control DLP estandarditzat monitoretja o bloqueja les entrades a ChatGPT a la capa de navegador.