Bloga DönAI Güvenliği

JPMorgan, Goldman Sachs, Apple: Kurumsal AI...

Kurumsal AI chatbot içeriğinin %27,4'ü hassas veriler içeriyor - yıllık %156'lık bir artış.

March 9, 20269 dk okuma
enterprise AI securityChatGPT banAI data controlsshadow AI

Kurumsal AI Yasak Dalgası

Son iki yılda, dünyanın en büyük işletmelerinin önemli bir kısmı kamuya açık AI araçlarını yasakladı:

JPMorgan Chase, Deutsche Bank, Wells Fargo, Goldman Sachs, Bank of America, Apple ve Verizon, çalışanların ChatGPT ve benzeri araçları kullanmasına kısıtlamalar getiren kuruluşlar arasında yer alıyor.

Tetikleyici Samsung oldu. 2023'te, Samsung bir iç ChatGPT yasağını kaldırdı — ve bir ay içinde üç ayrı kaynak kodu sızıntısı olayı meydana geldi. Çalışanlar, yarı iletken veritabanı kodunu, hata tespit programı kodunu ve iç toplantı notlarını ChatGPT'ye yapıştırarak yardım almak için kullandılar. Gönderildikten sonra, veriler OpenAI'nin sunucularında depolandı. Samsung'un bunu geri alma veya silme mekanizması yoktu. Yasak yeniden getirildi.

Samsung olayı, güvenlik ekipleri için her yerde referans olayı haline geldi: özel güvenlik ekiplerine sahip sofistike bir teknoloji şirketi, çalışanlarının IP'yi AI araçlarına sızdırmasını engelleyemiyorsa, tek seçenek bu araçları tamamen engellemektir.

Ya da böyle bir mantık vardı.

Neden Yasaklar Başarısız Oldu

Kurumsal AI chatbot'lara beslenen tüm içeriğin %27,4'ü hassas bilgiler içeriyor — bu, yıllık %156'lık bir artış (Zscaler 2025 Data@Risk Report).

Bu sayı, yasaklardan sonra neler olduğunu yansıtıyor: çalışanlar AI araçlarını kullanmaya devam etti. Sadece kurumsal hesaplardan kişisel hesaplara geçiş yaptılar.

Kurumsal AI erişiminin %71,6'sı artık kurumsal hesaplar aracılığıyla gerçekleşiyor ve kurumsal DLP kontrollerini atlıyor (LayerX 2025 Enterprise GenAI Security Report).

Yasak, AI kullanımını durdurmadı. AI kullanımını yer altına itti, burada daha az görünür, daha az kontrol edilebilir ve daha az denetlenebilir hale geldi. Kurumsal hesap aracılığıyla ChatGPT'yi kullanan bir geliştirici — günlükler üretiyor, DLP uyarılarını tetikliyor, en azından güvenlik operasyonlarına görünür — kişisel hesabı üzerinden kullanmaya geçti. Tamamen aynı veriler. Hiçbir görünürlük yok.

Bu, aynı hizmetin kişisel hesaplar aracılığıyla mevcut olduğu bir çağda araç yasaklarının temel başarısızlık modudur: kurumsal hesabı yasaklamak, davranışı yasaklamaz.

Zscaler Data@Risk Raporu: O İfadelerde Gerçekte Ne Var

Zscaler 2025 Data@Risk Report, çalışanların kurumsal AI chatbot'lara gerçekten ne gönderdiğine dair en ayrıntılı resmi sunuyor. %27,4 hassas veri oranı kategorilere göre aşağıdaki gibi dağılır:

  • Özel iş bilgileri ve ticari sırlar
  • Müşteri verileri (isimler, iletişim bilgileri, hesap detayları)
  • Çalışan kişisel bilgileri
  • Kaynak kodu (gömülü kimlik bilgileri dahil)
  • Finansal veriler (açıklanmamış kazançlar, anlaşma şartları, sözleşme değerleri)
  • Hukuki iletişimler ve ayrıcalıklı bilgiler

AI istemlerinde hassas verilerdeki yıllık %156'lık artış (Zscaler 2025), çalışanların daha az dikkatli hale gelmesini yansıtmaz. Bu, AI araçlarının benimsenmesinin büyümesini yansıtır. Daha fazla çalışan, daha fazla görev için AI araçlarını kullandıkça, bu araçlara giren hassas veri miktarı orantılı olarak artar.

AI Kısıtlamalarının Verimlilik Maliyeti

AI'yi yasaklama konusundaki güvenlik durumu açıktır. Buna karşı verimlilik durumu da aynı derecede nettir.

Araştırmalar, AI yardımının bilgi çalışanları için önemli verimlilik kazançları sağladığını sürekli olarak bulmaktadır:

  • AI kodlama asistanlarını kullanan geliştiriciler görevleri daha hızlı tamamlar
  • AI'yı belge inceleme süreci için kullanan hukuk profesyonelleri saatte daha fazla belge işler
  • AI'yı yanıt taslağı için kullanan müşteri destek ekipleri daha fazla talep yönetir

Kurumsal AI erişimini, rakiplerinin serbestçe kullandığı geliştiriciler için yasakladığında, rekabet dezavantajı somut hale gelir. Analistler, rakip firmalardaki meslektaşlarının rutin olarak kullandığı AI yardımı olmadan çalışmak zorunda kaldıklarında, çıktı farkı zamanla artar.

%71,6'lık kişisel hesap atlama oranı, sadece bireysel kural ihlallerini değil, rasyonel ekonomik davranışı da yansıtır: AI'dan elde edilen verimlilik kazancı o kadar büyüktür ki, çalışanlar aracı terk etmek yerine politika ihlali riskini kabul ederler.

Yasaklamanın Teknik Alternatifi

AI yasaklarının arkasındaki güvenlik endişesi geçerlidir: hassas verilerin dış AI sağlayıcılarına akması gerçek bir risk oluşturur. Çözüm, bu riski teknik olarak ortadan kaldırmaktır — çalışanların yine de atlayacağı bir yasak karşılığında verimlilik kaybını kabul etmemektir.

Teknik yaklaşım: hassas verileri AI modeline ulaşmadan önce anonimleştirmek.

Bir geliştiricinin, optimizasyon konusunda yardım almak için müşteri tanımlayıcılarını içeren bir veritabanı sorgusunu Claude'a yapıştırdığını düşünün. Teknik kontroller mevcut olduğunda:

  1. Geliştirici sorguyu yapıştırır (müşteri kimlikleri, hesap numaraları, kişisel olarak tanımlanabilir bilgiler içerir)
  2. Anonimleştirme katmanı iletimden önce müdahale eder
  3. Müşteri kimlikleri "[ID_1]" haline gelir, hesap numaraları "[ACCT_1]" haline gelir, isimler "[CUSTOMER_1]" haline gelir
  4. Anonimleştirilmiş sorgu Claude'a ulaşır
  5. Claude'un yanıtı (aynı token'ları kullanarak) geri döner
  6. Geliştirici, optimizasyon önerisini anlamak için yeterli olan token'larla yanıtı görür

Claude, gerçek müşteri verisi işlemedi. Hassas bilgiler kurumsal ağdan hiç çıkmadı. Geliştirici, ihtiyaç duyduğu teknik yardımı aldı. Güvenlik ekibinin incelemesi gereken hiçbir şey yok.

Geliştiriciler için MCP Sunucu Mimarisi

Claude Desktop veya Cursor IDE'yi kullanan geliştiriciler için — ana AI kodlama araçları — Model Context Protocol (MCP) şeffaf bir proxy mimarisi sağlar.

anonym.legal MCP Sunucusu, geliştiricinin AI istemcisi ile AI model API'si arasında yer alır. MCP protokolü aracılığıyla iletilen tüm metinler — dosya içerikleri, kod parçaları, hata mesajları, yapılandırma dosyaları ve doğal dil talimatları dahil — AI modeline ulaşmadan önce anonimleştirme motorundan geçer.

Geliştiricinin perspektifinden, Claude veya Cursor'u normal şekilde kullanıyorlar. Anonimleştirme görünmezdir.

Güvenlik ekibinin perspektifinden, hiçbir özel kod, kimlik bilgisi veya müşteri verisi tanınabilir formda ağdan çıkmaz. AI modeli anonimleştirilmiş versiyonları işler; yanıtlar otomatik olarak geliştirici için de-anonimleştirilir.

Bu mimari, Samsung sorununu doğrudan ele alır: ChatGPT'ye kaynak kodu yapıştıran çalışanlar, iletim öncesinde özel algoritma detaylarının token'larla değiştirildiği anonimleştirilmiş kod göndermiş olurlardı.

Tarayıcı Tabanlı AI için Chrome Eklentisi Mimarisi

MCP Sunucusu, IDE entegre AI kullanımını ele alır. Tarayıcı tabanlı AI kullanımı — Claude.ai, ChatGPT, Gemini — farklı bir teknik katman gerektirir.

Chrome Eklentisi, metni tarayıcı arayüzü aracılığıyla AI hizmetine gönderilmeden önce yakalar. Aynı anonimleştirme motoru uygulanır: isimler, şirket tanımlayıcıları, kaynak kodu sırları, finansal rakamlar ve diğer hassas içerikler, istem AI sağlayıcısının sunucularına ulaşmadan önce token'larla değiştirilir.

MCP Sunucusu (IDE) + Chrome Eklentisi (tarayıcı) kombinasyonu, bir kurumsal ortamda AI temas noktalarının tam yelpazesini kapsar.

İş Vakası Oluşturma

Bu yaklaşımı yönetim ekiplerine öneren CISOs için iş vakası üç bileşenden oluşur:

1. Yasakla eşdeğer güvenlik — Dış AI sağlayıcılarına ulaşanlar açısından, anonimleştirilmiş istemler geri kazanılabilir hassas bilgi içermez. AI sağlayıcısının sistemlerinde bir ihlal, kuruluşun müşterileri, IP'si veya operasyonlarıyla ilgili hiçbir değerli şey sağlamaz.

2. Sıfır verimlilik kaybı — Geliştiriciler, analistler ve bilgi çalışanları AI araçlarını normal şekilde kullanmaya devam eder. Anonimleştirme şeffaftır. Çıktı kalitesi değişmez çünkü AI modelleri takma adlandırılmış içerik üzerinde aynı derecede etkili çalışır.

3. Atlama sorununu ortadan kaldırır — %71,6'lık kişisel hesap atlama oranı, çalışanların politika uyumundan ziyade verimliliği seçtiğini yansıtır. Çalışanlar, kurumsal hesaplar aracılığıyla AI araçlarını risk olmadan kullanabildiklerinde, atlama motivasyonu ortadan kalkar. Güvenlik ekipleri, AI kullanımına yeniden görünürlük kazanır.

Yasak Sonrası Oyun Kitabı

Şu anda AI yasakları olan ve yeniden değerlendiren işletmeler için geçiş oyun kitabı:

Aşama 1 (1-2. Haftalar): Chrome Eklentisini Chrome Kurumsal politikası aracılığıyla tüm kurumsal cihazlara dağıtın. Bu, kısıtlamaları kişisel hesaplar aracılığıyla zaten atlayan çalışanlar için hemen tarayıcı düzeyinde PII müdahalesi sağlar.

Aşama 2 (3-4. Haftalar): Geliştirici iş istasyonlarına MCP Sunucusunu dağıtın. Kuruluş spesifik hassas tanımlayıcılar için özel varlık desenlerini yapılandırın (iç ürün kodları, müşteri hesap formatları, özel teknik terimler).

Aşama 3 (2. Ay): Kurumsal hesaplar için AI kullanım politikası yasaklarını kaldırın. Çalışanlar artık kurumsal hesaplar aracılığıyla teknik kontroller altında AI araçlarını kullanabilir.

Aşama 4 (Sürekli): Anonimleştirme faaliyetlerini izleyin (en sık hangi veri kategorilerinin anonimleştirildiğini belirlemek için) güvenlik eğitim önceliklerini belirlemek ve varlık tespit yapılandırmalarını ayarlamak için.

Samsung olayı, kurumsal AI yasak dalgasını tetikleyen bir güvenlik hatasını yansıttı, AI araçlarının kaçınılmaz bir özelliği değil. Samsung'un yasaklandığı dönemde mevcut olmayan teknik kontroller şimdi mevcut. Soru, güvenlik ekiplerinin bunları uygulayıp uygulamayacağı veya %71,6'sının zaten atladığı yasaklara güvenip güvenmeyeceğidir.


anonym.legal'in MCP Sunucusu ve Chrome Eklentisi, kurumsal AI benimsemesini veri güvenliği ile uyumlu hale getiren teknik kontrol katmanını sağlar. Her iki araç da şeffaf bir şekilde çalışır — çalışanlar AI'yi normal şekilde kullanır; hassas veriler, dış AI sağlayıcılarına ulaşmadan önce anonimleştirilir.

Kaynaklar:

Verilerinizi korumaya hazır mısınız?

48 dilde 285+ varlık türü ile PII anonimleştirmeye başlayın.