Trei echipe de ingineri, trei incidente, o lună
În aprilie 2023, Samsung Semiconductor a dezvăluit trei incidente separate în care angajații au transmis date proprietare către ChatGPT într-o singură lună.
Incidentele nu erau legate între ele. Au implicat angajați diferiți în roluri diferite, urmărind sarcini diferite, în zile diferite. Au avut doar două caracteristici comune: fiecare angajat a folosit ChatGPT pentru a realiza un obiectiv de lucru legitim, și fiecare a transmis involuntar date pe care Samsung nu intenționase să le partajeze cu infrastructura OpenAI.
Incidentul 1: Un inginer software depana cod legat de echipamentele semiconductoare. Depanarea sistemelor complexe este un caz de utilizare comun pentru instrumentele AI — furnizarea codului unui model AI și solicitarea identificării sursei comportamentului neașteptat. Inginerul a lipit codul sursă din sistemele proprietare de echipamente semiconductoare Samsung în ChatGPT. Codul conținea proprietate intelectuală legată de procesele de fabricație Samsung.
Incidentul 2: Un angajat pregătea un rezumat al unei ședințe. Luarea de note asistată de AI și rezumarea ședințelor au devenit instrumente de flux de lucru standard în toate industriile. Angajatul a trimis notele ședinței către ChatGPT pentru rezumare. Acele note conțineau discuții interne confidențiale — strategie de afaceri, planuri tehnice și alte informații pe care Samsung le considera nepublice.
Incidentul 3: Un al treilea angajat a căutat sugestii de optimizare pentru o interogare de bază de date. Optimizarea bazei de date este o sarcină tehnic dificilă unde asistența AI oferă valoare reală. Angajatul a furnizat structura bazei de date și logica interogării către ChatGPT. Logica interogării conținea referințe la structuri de date proprietare și logică de afaceri.
De ce au procedat angajații astfel
Nici unul dintre cei trei angajați Samsung nu acționa irresponsabil după propriile standarde profesionale. Foloseau un instrument AI pentru sarcini pentru care instrumentele AI sunt concepute să asiste: depanarea codului, rezumarea textului, optimizarea tehnică.
Elementul lipsă în fiecare caz era fricțiunea tehnică. Niciun sistem nu a interceptat trimiterea înainte să ajungă pe serverele OpenAI. Niciun control nu a marcat identificatorii codului proprietar înainte să plece din rețeaua corporativă. Niciun strat arhitectural nu a stat între necesitatea legitimă de lucru a angajatului și infrastructura furnizorului AI.
Angajații au fost raționali. Instrumentul AI a oferit asistență reală pentru sarcini de lucru legitime. Avertismentul de politică exista, dar nu impunea nicio barieră tehnică. Consecința neconformității — potențiala acțiune disciplinară pentru un act accidental — era abstractă și îndepărtată comparativ cu beneficiul imediat de productivitate al instrumentului.
Rezultatul: trei incidente într-o lună, trei dezvăluiri de informații proprietare și o criză corporativă care a declanșat o undă globală de interziceri AI în întreprinderi.
Răspunsul industriei
Răspunsul intern al Samsung a fost rapid: accesul la ChatGPT a fost restricționat pentru dispozitivele corporative. Dezvăluirea a declanșat o reacție mai largă a industriei care a relevat cât de răspândită era condiția subiacentă.
Organizațiile care au anunțat interziceri sau restricții ale instrumentelor AI după dezvăluirea Samsung au inclus Bank of America, Citigroup, Goldman Sachs, JPMorgan Chase, Apple și Verizon. Răspunsul sectorului financiar a fost deosebit de cuprinzător — mai multe instituții majore au concluzionat simultan că profilul de risc al instrumentelor AI fără controale tehnice era incompatibil cu obligațiile lor de conformitate.
Fiecare organizație a ajuns la aceeași concluzie: angajații nu sunt problema, iar avertismentele de politică nu sunt controale suficiente. Datele plecau din rețelele lor pentru că nicio barieră tehnică nu le împiedica, iar politica singură nu poate crea o barieră tehnică.
Rata de ocolire de 71,6%
Abordarea interzicerii are o rată de eșec documentată. Cercetarea LayerX din 2025 a constatat că 71,6% din angajații supuși interzicerilor AI în întreprinderi au continuat să folosească instrumente AI prin conturi personale sau dispozitive personale.
Rata de ocolire reflectă comportamentul de bază: atunci când un instrument oferă valoare reală de productivitate, utilizatorii găsesc soluții alternative în loc să abandoneze permanent instrumentul. Un angajat care descoperă că asistența AI accelerează substanțial rezultatul muncii sale nu va înceta să folosească aceste instrumente pentru că politica corporativă le interzice pe dispozitivele corporative. Va folosi conturi personale pe dispozitive personale prin canale pe care echipa de securitate nu le poate vedea.
Consecința practică a ratei de ocolire de 71,6% este că interzicerea AI realizează cel mai rău rezultat posibil: datele corporative ajung la furnizori AI prin canale fără controale de securitate. Cel puțin accesul prin dispozitiv corporativ ar putea fi teoretic monitorizat. Utilizarea contului personal este complet invizibilă pentru echipa de securitate.
Cele trei incidente Samsung s-au întâmplat pe dispozitive corporative prin acces corporativ. Angajații care ocolesc interzicerea fac același lucru — furnizează date legate de muncă modelelor AI — prin canale fără supraveghere în întreprindere.
Controlul tehnic care abordează cauza rădăcinii
Incidentele Samsung nu au fost cauzate de neglijența angajaților. Au fost cauzate de o arhitectură care nu oferea niciun strat de interceptare între utilizarea AI a angajatului și infrastructura AI externă.
Arhitectura Model Context Protocol (MCP) oferă un proxy transparent între clienții AI și API-urile modelelor AI. Pentru dezvoltatori care folosesc Claude Desktop sau Cursor IDE — instrumentele principale pentru tipul de depanare a codului care a cauzat primul incident Samsung — MCP Server se află în calea protocolului.
Înainte ca orice text să ajungă la modelul AI, MCP Server o procesează printr-un motor de anonimizare. Codul sursă este analizat pentru identificatori proprietari: nume de funcții, nume de variabile, puncte finale API interne, detalii de schemă de bază de date, valori de configurare. Acestea sunt înlocuite cu jetoane structurate înainte ca codul să ajungă la modelul AI.
Un dezvoltator care cere Claude să depaneze cod proprietar Samsung semiconductor prin MCP Server echipat cu anonimizare ar transmite cod în care identificatorii proprietari au fost înlocuiți cu jetoane. Modelul AI asistă la sarcina de depanare folosind codul anonimizat — ceea ce este suficient pentru analiza codului. Specificurile proprietare nu ajung niciodată pe serverele furnizorului AI.
Incidentul 1 devine imposibil din punct de vedere tehnic. Codul sursă pleacă din rețea în formă anonimizată. AI oferă asistența de depanare de care inginerul avea nevoie. Proprietatea intelectuală Samsung rămâne sub controlul Samsung.
Aceași arhitectură se aplică Incidentului 2 (rezumarea notelor ședinței prin AI bazat pe browser, abordat de extensia Chrome) și Incidentului 3 (optimizarea interogării bazei de date prin orice interfață de codare AI, abordat de anonimizarea MCP).
Incidentele Samsung au fost o previziune a unei probleme sistematice. Controalele tehnice care abordează cauza rădăcinii există acum. Întrebarea este dacă întreprinderile le vor implementa sau vor continua să se bazeze pe interziceri pe care 71,6% din angajații lor le ocolesc deja.
Surse: