Η Κρίση Credential Leakage στο AI Coding
GitHub's Secret Scanning ανέφερε για το 2024:
- 39 εκατομμύρια leaked secrets ανιχνεύθηκαν
- 28% αύξηση από 2023
- Κύριες αιτίες: AI coding assistants, CI/CD logging
Τι επικολλούν developers σε AI:
- Ολόκληρα
.envfiles («βοήθησε με αυτό») - Database connection strings (ψάχνουν για debug)
- API keys embedded σε κώδικα («τι κάνω λάθος;»)
- Internal service URLs και architecture docs
Γιατί Αυτό Είναι PII/Security Problem
GDPR Άρθρο 32: API keys που έχουν πρόσβαση σε PII databases = μέτρα ασφαλείας επεξεργασίας.
Εάν developer επικολλά database connection string στο Claude/Cursor:
- Connection string = ευαίσθητη πληροφορία ασφαλείας
- AI tool ενδέχεται να αποθηκεύει prompt ιστορικό
- Εάν η DB περιέχει PII → παραβίαση GDPR
Τεχνικές Λύσεις
Pre-commit hook για credential scanning:
# .pre-commit-config.yaml
repos:
- repo: https://github.com/Yelp/detect-secrets
rev: v1.4.0
hooks:
- id: detect-secrets
IDE plugin ανωνυμοποίησης: Αντικαθιστά credentials/configs με placeholders πριν αποσταλούν στο AI:
DATABASE_URL=postgres://user:pass@host/db→DATABASE_URL=[DB_URL]API_KEY=sk-proj-xyz→API_KEY=[REDACTED_API_KEY]
Πηγές: