ब्लॉग पर वापस जाएँAI सुरक्षा

AI अब #1 डेटा एक्सफिल्ट्रेशन वेक्टर है—यहाँ क्या करना है

77% कर्मचारी संवेदनशील डेटा को AI उपकरणों में चिपकाते हैं। GenAI अब सभी कॉर्पोरेट डेटा एक्सफिल्ट्रेशन का 32% है। जानें कि अपने संगठन की सुरक्षा कैसे...

February 17, 20268 मिनट पढ़ें
AI securityChatGPTdata leakageenterprise security

AI डेटा लीक संकट

अक्टूबर 2025 में, LayerX Security ने ऐसे निष्कर्ष जारी किए जो हर CISO को चिंतित कर देने चाहिए: 77% कर्मचारी डेटा को GenAI उपकरणों में चिपकाते हैं, जिसमें से 82% गतिविधि बिना प्रबंधन वाले व्यक्तिगत खातों से आती है।

और भी चिंताजनक: GenAI अब सभी कॉर्पोरेट डेटा एक्सफिल्ट्रेशन का 32% है—जिससे यह उद्यम में अनधिकृत डेटा आंदोलन का #1 वेक्टर बन गया है।

यह कोई भविष्य की समस्या नहीं है। यह अभी हो रहा है, हर दिन, आपके संगठन में।

आंकड़े चौंकाने वाले हैं

निष्कर्षडेटास्रोत
AI में डेटा चिपकाने वाले कर्मचारी77%LayerX 2025
AI उपकरणों के माध्यम से डेटा एक्सफिल्ट्रेशन32%LayerX 2025
बिना प्रबंधन वाले खातों के माध्यम से ChatGPT का उपयोग67%LayerX 2025
व्यक्तिगत खातों के माध्यम से दैनिक चिपकाने14 प्रति कर्मचारीLayerX 2025
संवेदनशील डेटा वाले चिपकाने3+ प्रति दिनLayerX 2025

औसतन, कर्मचारी व्यक्तिगत खातों के माध्यम से प्रति दिन 14 चिपकाने करते हैं, जिनमें से कम से कम तीन संवेदनशील डेटा होते हैं। पारंपरिक DLP उपकरण, जो फ़ाइल-केंद्रित निगरानी के चारों ओर बनाए गए हैं, इस गतिविधि को भी दर्ज नहीं करते।

AI पर प्रतिबंध लगाने से काम नहीं होता

Samsung ने कर्मचारियों द्वारा स्रोत कोड लीक करने के बाद ChatGPT पर प्रतिबंध लगाने की कोशिश की। यह काम नहीं किया।

वास्तविकता यह है कि AI उपकरण कर्मचारियों को काफी अधिक उत्पादक बनाते हैं। अनुसंधान के अनुसार, AI सहायक का उपयोग करने वाले डेवलपर्स कार्यों को 55% तेजी से पूरा करते हैं। जब आप AI पर प्रतिबंध लगाते हैं, तो कर्मचारी या तो:

  1. फिर भी इसका उपयोग करते हैं व्यक्तिगत खातों के माध्यम से (67% पहले से ही करते हैं)
  2. उत्पादकता खो देते हैं और निराश हो जाते हैं
  3. प्रतिस्पर्धियों के लिए छोड़ देते हैं जो AI को अपनाते हैं

उत्तर प्रतिबंध नहीं है—यह सुरक्षा है।

900,000-उपयोगकर्ता क्रोम एक्सटेंशन उल्लंघन

दिसंबर 2025 में, OX Security ने दो दुर्भावनापूर्ण क्रोम एक्सटेंशनों की खोज की जो 900,000+ उपयोगकर्ताओं से ChatGPT और DeepSeek वार्तालाप चुरा चुके थे।

इनमें से एक एक्सटेंशन के पास Google's "Featured" बैज था—जो विश्वसनीयता का प्रतीक है।

एक्सटेंशनों ने काम किया:

  • वास्तविक समय में चैट वार्तालापों को इंटरसेप्ट करना
  • पीड़ितों की मशीनों पर डेटा को स्थानीय रूप से स्टोर करना
  • हर 30 मिनट में कमांड-और-नियंत्रण सर्वरों पर बैचों को एक्सफिल्ट्रेट करना

और भी बुरा: एक अलग जांच में पाया गया कि "फ्री VPN" एक्सटेंशनों के 8 मिलियन से अधिक डाउनलोड हुए थे, जो जुलाई 2025 से AI वार्तालापों को कैप्चर कर रहे थे।

समाधान: सबमिशन से पहले इंटरसेप्ट करें

संवेदनशील डेटा की सुरक्षा के साथ AI का सुरक्षित उपयोग करने का एकमात्र तरीका है कि PII को AI मॉडल तक पहुँचने से पहले अनामित किया जाए

यह ठीक वही है जो anonym.legal का क्रोम एक्सटेंशन और MCP सर्वर करते हैं:

क्रोम एक्सटेंशन

  • आप इसे ChatGPT, Claude, या Gemini को भेजने से पहले टेक्स्ट को इंटरसेप्ट करता है
  • स्वचालित रूप से PII (नाम, ईमेल, SSNs, आदि) का पता लगाता है और अनामित करता है
  • संवेदनशील डेटा को टोकनों के साथ बदलता है: "John Smith" → "[PERSON_1]"
  • AI प्रतिक्रियाओं को फिर से पहचानता है ताकि आप मूल नाम देख सकें

MCP सर्वर (डेवलपर्स के लिए)

  • Claude Desktop, Cursor, और VS Code के साथ एकीकृत होता है
  • पारदर्शी प्रॉक्सी—आप सामान्य रूप से AI के साथ इंटरैक्ट करते हैं
  • PII को मॉडल तक पहुँचने से पहले अनामित किया जाता है
  • आपके मौजूदा वर्कफ़्लो के साथ काम करता है

क्या सुरक्षित किया जाता है

दोनों उपकरण 285+ एंटिटी प्रकारों का पता लगाते और अनामित करते हैं 48 भाषाओं में:

  • व्यक्तिगत: नाम, ईमेल पते, फोन नंबर, जन्म तिथियाँ
  • वित्तीय: क्रेडिट कार्ड नंबर, बैंक खाते, IBANs
  • सरकारी: SSNs, पासपोर्ट नंबर, ड्राइवर के लाइसेंस
  • स्वास्थ्य देखभाल: चिकित्सा रिकॉर्ड नंबर, रोगी आईडी
  • कॉर्पोरेट: कर्मचारी आईडी, आंतरिक खाता नंबर

यहाँ तक कि यदि आपकी AI चैट इतिहास से समझौता किया गया है (जैसे कि उन 900,000 उपयोगकर्ताओं के साथ), तो कोई पुनर्प्राप्त करने योग्य PII नहीं है—केवल अनामित टोकन हैं।

कार्यान्वयन: सुरक्षा के लिए 5 मिनट

क्रोम एक्सटेंशन

  1. anonym.legal/features/chrome-extension से डाउनलोड करें
  2. अपने anonym.legal खाते के साथ लॉग इन करें
  3. ChatGPT, Claude, या Gemini पर जाएँ
  4. सामान्य रूप से टाइप करें—PII को स्वचालित रूप से पता लगाया और भेजने से पहले अनामित किया जाता है

MCP सर्वर (Claude Desktop के लिए)

अपने claude_desktop_config.json में जोड़ें:

{
  "mcpServers": {
    "anonym-legal": {
      "command": "npx",
      "args": ["-y", "@anthropic/mcp-server-anonym-legal"],
      "env": {
        "ANONYM_API_KEY": "your-api-key"
      }
    }
  }
}

निष्क्रियता की लागत

विचार करें कि क्या जोखिम में है:

  • वित्तीय डेटा AI के लिए विश्लेषण में चिपकाया गया
  • ग्राहक जानकारी समर्थन प्रश्नों में उपयोग की गई
  • स्रोत कोड डिबगिंग के लिए साझा किया गया
  • कानूनी दस्तावेज AI द्वारा संक्षिप्त किए गए
  • स्वास्थ्य रिकॉर्ड अंतर्दृष्टि के लिए संसाधित किए गए

एकल डेटा उल्लंघन की औसत लागत $4.88 मिलियन है (IBM 2024)। औसत स्वास्थ्य देखभाल उल्लंघन की लागत अब $7.42 मिलियन है (IBM 2025)—2024 में $9.77 मिलियन से कम, लेकिन फिर भी हर अन्य उद्योग से बहुत अधिक है।

क्रोम एक्सटेंशन मुफ्त है। MCP सर्वर प्रो योजनाओं के साथ शामिल है जो €15/माह से शुरू होती हैं।

निष्कर्ष

AI यहाँ रहने के लिए है। आपके कर्मचारी पहले से ही इसका उपयोग कर रहे हैं—सवाल यह है कि क्या वे इसे सुरक्षित रूप से कर रहे हैं।

LayerX के निष्कर्ष स्पष्ट करते हैं: पारंपरिक सुरक्षा दृष्टिकोण AI डेटा एक्सफिल्ट्रेशन के प्रति अंधे हैं। आपको डेटा की सुरक्षा के लिए विशेष रूप से डिज़ाइन किए गए उपकरणों की आवश्यकता है इससे पहले कि यह AI मॉडलों तक पहुँचे।

आज ही अपने संगठन की सुरक्षा शुरू करें:


स्रोत:

क्या आप अपने डेटा की सुरक्षा के लिए तैयार हैं?

48 भाषाओं में 285+ संस्थाओं के प्रकारों के साथ PII अनामकरण शुरू करें।