anonym.legal
Înapoi la BlogSecuritate AI

De ce Instruirea Politicilor Nu Reușește să Oprească...

77% din utilizatorii de AI din întreprinderi copiază-lipesc date în interogări de chatbot. Aproape 40% din fișierele încărcate conțin date PII sau PCI.

April 15, 20268 min citire
ChatGPT PII leak preventionChrome extension DLPenterprise AI policytechnical controls browsercopy-paste PII protection

Problema Comportamentului de Copiere-Lipire

77% din utilizatorii de AI din întreprinderi copiază-lipesc date în interogări de chatbot. Acest model de comportament nu este limitat la o minoritate neconformă — este modul de interacțiune dominant pentru utilizarea instrumentelor de AI în întreprinderi. Când angajații întâlnesc un document complex, o problemă de client sau o sarcină analitică, fluxul de lucru natural este: copiază conținutul relevant, lipește-l în instrumentul de AI, obține un răspuns.

Acest flux de lucru nu face distincție între conținutul care conține date personale și conținutul care nu le conține. Acțiunea de copiere-lipire precede decizia de clasificare. Până în momentul în care angajatul a lipit conținutul și citește răspunsul AI, transmisia a avut deja loc. Instruirea politicilor se aplică în momentul clasificării — "ar trebui să lipesc asta?" — dar natura fracțiunii de secundă a deciziei înseamnă că rechemarea politicii se degradează sub sarcina cognitivă, presiunea timpului și comportamentul obișnuit.

Cercetarea Cyberhaven a constatat că aproape 40% din fișierele încărcate în instrumentele de AI conțin date PII sau PCI. Cifra include angajații care sunt pe deplin conștienți de politicile de utilizare a AI: ei încarcă fișierul de care au nevoie pentru a lucra, care se întâmplă să conțină date de clienți. Încălcarea politicii este incidentală unei sarcini legitime.

De ce Instruirea Eșuează la Scară

Programele de instruire a politicilor se confruntă cu aceeași limitare structurală în toate contextele de protecție a datelor: încearcă să modifice modele de comportament profund înrădăcinate prin intervenții educaționale periodice. Intervalele dintre sesiunile de instruire (de obicei anuale) depășesc constanta de timp a degradării comportamentale. Angajații care au primit instruire temeinică privind gestionarea datelor de AI în Q1 operează în principal pe bază de obicei în Q4.

Actualizarea HIPAA Security Rule propusă în martie 2025 — care necesită audituri anuale de criptare — reflectă recunoașterea de către autorități de reglementare că conformitatea politicilor necesită verificare periodică a controalelor tehnice, nu doar programe de instruire. Cerința de audit implică faptul că autoritățile de reglementare se așteaptă ca controalele tehnice să fie mecanismul primar și instruirea să fie mecanismul suplimentar.

Pentru scurgerea de date specifică AI, comportamentul este mai greu de prevenit prin instruire decât comportamentele standard de gestionare a datelor, deoarece apare într-un context novel (instrumentele de AI nu existau când au fost formate cele mai multe obiceiuri de gestionare a datelor din întreprinderi) și deoarece scurgerea nu produce nicio consecință negativă imediată vizibilă pentru angajat.

Arhitectura de Interceptare a Extensiei Chrome

Extensiunea Chrome operează la nivelul clipboard — înainte ca conținutul lipit să ajungă în câmpul de intrare al instrumentului de AI. Interceptarea este arhitectural anterioară deciziei utilizatorului de a trimite: angajatul copiază conținut din aplicația sa de lucru, comută la fila ChatGPT și lipește. Extensiunea detectează PII în conținutul clipboard în momentul lipirii, înainte ca conținutul să apară în câmpul de intrare.

O fereastră modală de previzualizare arată angajatului exact ce va fi anonimizat: "Nume client 'Maria Schmidt' → '[PERSON_1]'; Email 'maria.schmidt@company.de' → '[EMAIL_1]'." Angajatul poate continua cu versiunea anonimizată sau anula lipirea dacă înlocuirea specifică este inacceptabilă.

Fereasta modală de previzualizare servește două scopuri. În primul rând, oferă transparență — angajații înțeleg ce face instrumentul, ceea ce construiește încredere adecvată și reduce percepția că controalele de confidențialitate sunt supraveghere. În al doilea rând, face decizia de anonimizare explicită mai degrabă decât tăcută: angajatul afirmă fiecare operație de anonimizare, creând un moment psihologic în care decizia de clasificare (aceasta este PII?) este luată de o persoană mai degrabă decât automatizată.

Pentru echipa de asistență pentru clienți a unei companii de comerț electronic european: agenții redactează răspunsuri folosind ChatGPT, lipind corespondență cu clienții care conțin nume, numere de comandă și adrese. Extensiunea Chrome interceptează fiecare lipire, anonimizează datele personale, iar agentul trimite interogarea anonimizată. Răspunsurile ChatGPT fac referință la tokenurile anonimizate; agentul poate citi sugestiile AI și le poate încorpora în răspunsul real către client. Minimizarea datelor conform GDPR Articolul 5 este satisfăcută; îmbunătățirea calității suportului din asistența AI este menținută.

Surse:

Pregătit să vă protejați datele?

Începeți să anonimizati PII cu 285+ tipuri de entități în 48 de limbi.