Problema PII din Mediul de Dezvoltare
Echipele de dezvoltare software sunt printre cei mai frecventi expunatori accidentali de PII — nu prin incalcari ale sistemelor, ci prin fluxurile de lucru cotidiene ale dezvoltarii software.
Problema: datele personale din sistemele de productie ajung in mod regulat in mediile de dezvoltare, si de acolo in asistentii de codare AI.
Cercetarea de securitate GitHub 2025 a constatat ca 39 de milioane de secrete — chei API, acreditive si date sensibile — au fost scurse in depozite publice in 2024. O parte semnificativa a provenit din datele de test si artifactele de depanare.
Modalitati Comune de Scurgere PII
Fixture-uri de teste unitare: Dezvoltatorii copiaza inregistrari reale ale clientilor ca 'date de test' pentru fixture-uri. Inregistrarile raman in baza de cod, expuse la istoricul git si asistentii de codare AI.
Fisiere jurnal pentru depanare: Jurnalele de productie copiaza in directoarele locale pentru depanare. Jurnalele contin ID-uri de utilizator, adrese email, adrese IP — toate expuse asistentilor de codare.
Baze de date de test: Dumpuri de baze de date de productie folosite ca seturi de date de testare. Contine date complete ale clientilor, adesea uitata in directoarele de lucru.
Capturi de ecran de depanare: Capturi de ecran ale starii aplicatiei care arata date ale clientilor, trimise in chat pentru depanarea asistentului AI.
Ce Instrumentele AI fac cu Datele
Modele AI diferite au politici diferite:
- GitHub Copilot: datele trimise pot fi folosite pentru imbunatatirea modelului (daca nu sunt dezactivate prin setari enterprise)
- ChatGPT: inputul utilizatorilor poate fi folosit pentru antrenamentul modelului in planul gratuit
- Asistentii locali: fara transmitere de date, dar istoricul sesiunilor persista local
Surse: Cercetarea de Securitate GitHub 2025; Directivele privind Confidentialitatea Asistentului de Codare AI ENISA 2024; Orientarile de Securitate pentru Codul AI OWASP 2025