Incidentul Samsung ChatGPT din Martie 2023
Incidentul Samsung ChatGPT ilustreaza limitarea fundamentala a controalelor de securitate post-hoc: un inginer Samsung a lipit cod sursa proprietar in ChatGPT inainte ca orice sistem de monitorizare sau preventie sa poata interveni. Codul a parasit controlul Samsung intr-o singura apasare de tasta.
Monitorizarea jurnalelor, DLP-ul endpoint si anonimizarea post-fapt sunt instrumente de detectie. Va spun ce s-a intamplat dupa ce s-a intamplat. Pentru scurgerea de date AI, detectia dupa transmisie este prea tarzie.
Scara Problemei
Un studiu Cyberhaven din 2025 a analizat utilizarea instrumentelor AI enterprise in mii de organizatii:
- 11% din toate prompturile ChatGPT contin date confidentiale sau personale
- Angajatul mediu interactioneaza cu instrumentele AI de 14 ori pe zi
- Angajatii cu utilizare ridicata (avocati, analisti, personal de serviciu pentru clienti): 30-50 de interactiuni AI zilnic
- La 11% continut confidential: un angajat cu utilizare ridicata trimite ~3-5 prompturi cu date confidentiale zilnic
Solutia de Preventie in Timp Real
Extensiile Chrome care intercepteaza continutul promptului inainte de transmitere furnizeaza preventie reala, nu detectie:
- Detectia pre-trimitere: Analizati textul promptului pentru PII inainte de trimiterea la platforma AI
- Anonimizarea automata: Inlocuiti PII cu etichete sau pseudonime inainte de trimitere
- Alertarea utilizatorului: Avertizati utilizatorul ca PII a fost detectata si solicitati confirmarea
- Inregistrarea conformitatii: Inregistrati evenimentele de detectie pentru raportarea conformitatii
Surse: Raportul Cyberhaven privind Utilizarea Datelor AI in Enterprise T4 2025; Incidentul Samsung ChatGPT — Analiza de Securitate Interna 2023; Orientarile CNIL privind Instrumentele AI si GDPR 2024