بلاگ پر واپس جائیںAI سیکیورٹی

JPMorgan, Goldman Sachs, Apple: کیوں Enterprise AI...

2024 میں، 30+ Fortune 500 کمپنیوں نے ChatGPT، Claude اور دیگر AI tools کو محدود یا روک دیا۔ کیوں؟ Proprietary code exfiltration۔ لیکن مسئلہ یہ ہے...

March 9, 20269 منٹ پڑھیں
enterprise AI securityChatGPT banAI data controlsshadow AI

Fortune 500 میں AI بیان

2024 میں:

  • JPMorgan Chase نے تمام public AI tools کو block کیا
  • Goldman Sachs نے ChatGPT اور GitHub Copilot کو محدود کیا
  • Apple نے proprietary AI policy جاری کی (internal only)
  • Morgan Stanley نے ChatGPT access کو 'designated computers' تک محدود کیا

یہاں ایک مشترک سوچنے والا شخص سوچتا ہے: کیوں؟ AI کی بہتری ہے۔ Productivity کے لیے اچھی ہے۔

جواب: Code theft۔

Proprietary Code Exfiltration کا خطرہ

جب ایک developer یا analyst اپنا کوڈ، algorithm یا internal document ChatGPT میں ڈالتا ہے، تو:

  1. OpenAI اسے اپنے سرورز میں store کرتا ہے
  2. یہ potentially اپنے models کی training میں آتا ہے
  3. یہ logs میں رہ سکتا ہے
  4. OpenAI کے vendor، سب کے پاس اس تک رسائی ہو سکتی ہے

جب JPMorgan کے ایک developer نے proprietary trading algorithm کو ChatGPT میں ڈالا، تو یہ ہو سکتا ہے:

  • OpenAI کے training data میں شامل ہو
  • کہیں log ہو
  • Competitor کے لیے exposed ہو

یہاں سے AI ban آتا ہے۔

کیا آپ اپنے ڈیٹا کی حفاظت کے لیے تیار ہیں؟

48 زبانوں میں 285+ ادارتی اقسام کے ساتھ PII کی گمنامی شروع کریں۔