Bloga DönAI Güvenliği

Önleme vs. Tespit: Neden Gerçek Zamanlı PII...

Bir çalışan, ChatGPT'ye bir müşteri adı yazdığında, veriler gerçek zamanlı olarak kurumsal kontrolün dışına çıkar.

April 21, 20267 dk okuma
AI data preventionChatGPT PIIreal-time anonymizationDLP alternativeChrome Extension

Önleme vs. Tespit: Neden Gerçek Zamanlı PII Anonimleştirmesi, AI Veri Sızıntılarına Karşı Tek Etkili Savunmadır

Mart 2023'teki Samsung ChatGPT olayı, sonradan yapılan güvenlik kontrollerinin temel sınırlamasını göstermektedir: Bir Samsung mühendisi, herhangi bir izleme veya önleme sistemi müdahale etmeden önce, ChatGPT'ye özel kaynak kodunu yapıştırdı. Kod, Samsung'un kontrolünü tek bir tuş vuruşuyla terk etti.

Günlük izleme, uç nokta DLP ve sonradan yapılan anonimleştirme, tespit araçlarıdır. Size, olaydan sonra ne olduğunu söyler. AI veri sızıntıları için, iletimden sonra tespit çok geçtir. Veriler, AI model tarafından zaten işlenmiş, muhtemelen eğitim verilerine dahil edilmiş ve artık kontrolünüz altında değildir.

Sorunun Ölçeği

2025 Cyberhaven araştırması, binlerce organizasyonda kurumsal AI araç kullanımını analiz etti:

  • Tüm ChatGPT istemlerinin %11'i gizli veya kişisel veri içeriyor
  • Ortalama bir çalışan, günde 14 kez AI araçlarıyla etkileşime geçiyor
  • Yüksek kullanımda olan çalışanlar (avukatlar, analistler, müşteri hizmetleri personeli): günde 30-50 AI etkileşimi
  • Gizli veri içeren %11 ile: yüksek kullanımda olan her çalışan için günde 3-5 gizli iletim

500 yüksek kullanımda çalışanı olan bir organizasyonda, bu, günde 1,500-2,500 gizli veri iletimi anlamına gelir. Her iletim, kişisel veri içeriyorsa potansiyel bir GDPR Madde 83 ihlali oluşturur.

AI istemlerinde gizli veya kişisel veriyi oluşturan unsurlar:

  • Müşteri adları ve iletişim bilgileri (müşteri iletişimlerini taslaklamak için istenen)
  • Hesap numaraları ve finansal detaylar (işlemleri analiz etmek için istenen)
  • Tıbbi bilgiler (sağlık çalışanlarının klinik rehberlik istemesi)
  • Hukuki dava detayları (avukatların sözleşme analizi istemesi)
  • Çalışan bilgileri (İK'nın performans değerlendirmesi yardımı istemesi)
  • İç iş verileri (finansal projeksiyonlar, yayımlanmamış ürün planları)

Cyberhaven araştırması, kasıtlı veri paylaşımı (çalışanın kasıtlı olarak müşteri verisini paylaşması) ile kazara paylaşım (çalışanın AI eğitim etkilerini düşünmeden veri dahil etmesi) arasında ayrım yapmamaktadır. Her ikisi de aynı maruziyeti yaratır.

Neden Tespit Yetersizdir

Ağ düzeyinde izleme: HTTPS şifrelemesi, ISS'lerin ve ağ cihazlarının AI istem içeriğini TLS denetimi olmadan inceleyemeyeceği anlamına gelir (MITM). TLS denetimi, kendi gizlilik ve güvenlik endişelerini getirir, şifre çözme yükü oluşturur ve modern tarayıcılar ve uygulamalar tarafından sıkça engellenir.

Uç nokta DLP: Uç nokta ajanları, pano içeriğini ve tuş vuruşlarını izleyebilir ancak doğası gereği gecikme ile çalışır. DLP ajanı bir tuş vuruşu dizisini işleyip bir ihlal modeli tanımladığında, veriler zaten gönderilmiş olabilir. DLP, dosya tabanlı veri sızdırma için daha iyidir, tarayıcı tabanlı AI girişi için değil.

AI satıcı denetim günlükleri: Bazı kurumsal AI planları, istemlerin denetim kaydını sağlar. Bu, paylaşıldıktan sonra neyin paylaşıldığını söyler. Olay yanıtı için faydalıdır, önleme için değil.

Çalışan eğitimi: "Müşteri verilerini ChatGPT'ye yapıştırmayın" bir politika, kontrol değil. Cyberhaven araştırması, politikalar mevcut olsa bile, istemlerin %11'inin gizli veri içerdiğini göstermektedir. Eğitim, kasıtlı ihlalleri ele alır; kazara paylaşımı veya politikayı bilen ancak iş akışında unutan çalışanları ele almaz.

AI araçlarını engelleme: Nükleer seçenek. Tüm AI araçlarını engelleyen organizasyonlar, benimseme ile sağlanan verimlilik faydalarını kaybeder. Gölge BT genellikle engellenen araçların yerini alır — çalışanlar kişisel cihazlar veya kişisel AI hesapları kullanır, herhangi bir izleme dışındadır.

Bu yaklaşımların hiçbiri, gizli verilerin gerçek zamanlı olarak AI sistemlerine ulaşmasını önlemez.

Giriş Noktasında Önleme

Gerçek zamanlı AI veri sızıntılarına karşı tek etkili savunma, veriler gönderilmeden önce anonimleştirmedir. Müşteri adı "Sarah Johnson" tarayıcıdan çıkmadan önce "[PERSON_1]" ile değiştirilirse, AI modeli kişisel veri almaz — izleme sistemlerinin neyi yakalayabileceği veya yakalayamayacağına bakılmaksızın.

Satır içi önleme nasıl çalışır:

  1. Çalışan, Claude veya ChatGPT arayüzüne bir müşteri e-postası yazar
  2. Tarayıcı uzantısı, giriş alanında gerçek zamanlı olarak PII'yi tespit eder
  3. PII, varlık türü etiketleri ile vurgulanır (PERSON, EMAIL_ADDRESS, ACCOUNT_NUMBER)
  4. Çalışan, vurgulanan varlıkları gözden geçirir
  5. Tek tıklama ile anonimleştirme, PII'yi etiketli tokenlerle değiştirir
  6. Anonimleştirilmiş istem gönderilir

AI şunu alır: "Müşteri [PERSON_1]'in [EMAIL_1] adresinde bir hesabı var [ACCOUNT_1] ve ... hakkında soru soruyor."

AI'nın yanıtı, gerçek müşteri verilerini almadan sorguyu yanıtlar. Çalışan, hangi [PERSON_1] hakkında soru sorduğunu bilerek yanıtın bağlamını yeniden tanımlayabilir.

Bu neyi önler:

  • Kişisel verilerin (GDPR Madde 4) uygun korumalar olmadan dış AI işlemcilerine ulaşmasını
  • Müşteri PII'nin AI eğitim verilerine dahil edilmesini
  • AI araçlarını tamamen engellemekten kaynaklanan çalışan verimliliği kaybını

Bu neyi önlemez:

  • Kasıtlı paylaşım (çalışan, anonimleştirme önerisini gördükten sonra doğrudan isimleri yazar)
  • PII olarak tanımlanmayan içerik (belirli ürün detayları, iç süreçler)
  • Dosya ekleri aracılığıyla paylaşım (ayrı bir dosya anonimleştirme iş akışı gerektirir)

Satır içi anonimleştirme yoluyla önleme mükemmel değildir — hiçbir kontrol mükemmel değildir. Ancak, kazara ve dikkatsiz kategoriyi ortadan kaldırarak %11'lik olay oranını azaltır, bu da vakaların çoğunluğunu temsil eder.

Uygulama: Hukuk Bürosu Vaka Çalışması

Bir hukuk bürosunun ortakları, sözleşme özetlerini taslaklamak için Claude'u kullandı. İş akışı: ilgili sözleşme bölümlerini kopyala, Claude'a yapıştır, özet iste.

Chrome Uzantısı dağıtımından önce (6 ay):

  • Üç müşteri PII olayı, üç aylık uyum incelemesi sırasında keşfedildi
  • Her olay: müşteri adı + konu referans numarası Claude isteminde yer aldı
  • Üçü de kazara — ortaklar konu referanslarının müşteri PII'sini oluşturduğunu fark etmediler

Chrome Uzantısı dağıtımından sonra (6 ay):

  • Sıfır müşteri PII olayı
  • Ortaklar, müşteri adlarını içeren sözleşme bölümlerini yapıştırırken gerçek zamanlı vurgulama alıyor
  • Tek tıklama ile anonimleştirme, "Johnson Controls Matter 2024-0347"'yi "[PERSON_1] Matter [REFERENCE_1]" ile değiştirdi
  • İş akışı değişmedi — ortaklar hâlâ taslak yardımı için Claude'u kullanıyor

Yönetici ortak, iyileşmeyi önleme modeline atfediyor, daha iyi eğitime değil: "Ortaklarımız uzantıdan önce politikayı biliyordu. Uzantı, uyumu en az dirençli yol haline getirdi."

GDPR Uyum Dokümantasyonu

Tarayıcı tabanlı AI anonimleştirmesini teknik kontrol olarak dağıtan organizasyonlar için:

İşleme Faaliyetleri Kayıtları (ROPA): "Müşteri destek AI etkileşimleri, dış AI satıcılarına gönderilmeden önce istemci tarafında PII anonimleştirmesi ile işlenmektedir. Tespit edilen varlık türleri: [liste]. Tespit motoru: [sürüm]. Kontrol kanıtı: Chrome Uzantısı dağıtım günlükleri, çalışan başına anonimleştirme oranını gösterir."

Veri İşleyici Sözleşmesi: AI satıcısı (OpenAI, Anthropic, Google) bir veri işleyicisidir. Eğer kişisel veri AI satıcısına ulaşmazsa, DPA yükümlülükleri basitleşir — sorumluluğunuz altındaki kişisel veriler asla onlara ulaşmaz.

Denetim kanıtı: Chrome Uzantısı dağıtım günlükleri şunları gösterir: tespit edilen varlık sayısı, gönderimden önce anonimleştirilen tespit edilen varlıkların yüzdesi, en sık tespit edilen varlık türleri. Kurumsal panolar, bu verileri uyum raporlaması için toplar.

Sonuç

Samsung ChatGPT olayı, gerçek zamanlı AI veri sızıntısının, herhangi bir sonradan yapılan güvenlik kontrolünün yanıt verebileceğinden daha hızlı gerçekleşebileceğini ortaya koydu. Cyberhaven araştırması, ölçeği nicelendirerek gösterdi: İstemlerin %11'i, çalışan başına günde birden fazla kez, kurumsal ölçekte.

Gerçek zamanlı satır içi anonimleştirme yoluyla önleme, belirtilerin değil, kök nedenin üstesinden gelir. Kişisel veriler AI modeline asla ulaşmadığında, tespit edilecek, kaydedilecek veya düzeltilecek bir sızıntı yoktur. Çalışan, AI verimliliğini korur. Organizasyon, GDPR uyumunu korur.

Tespit, önleme başarısız olduğunda yaptığınız şeydir. AI veri sızıntıları için başarısızlık maliyeti (regülatif cezalar, itibar kaybı, müşteri güveninin erozyonu) önlemeye yatırım yapmayı haklı çıkarır.

Kaynaklar:

Verilerinizi korumaya hazır mısınız?

48 dilde 285+ varlık türü ile PII anonimleştirmeye başlayın.