जनवरी 2026 की घटना
जनवरी 2026 में खोजे गए दो क्रोम एक्सटेंशन — "Chat GPT for Chrome with GPT-5, Claude Sonnet and DeepSeek AI" (600,000+ उपयोगकर्ता) और "AI Sidebar with Deepseek, ChatGPT, Claude and more" (300,000+ उपयोगकर्ता) — हर 30 मिनट में एक दूरस्थ कमांड-एंड-कंट्रोल सर्वर पर पूर्ण AI वार्तालाप इतिहास निकालते पाए गए।
ये एक्सटेंशन खुद को गोपनीयता और AI संवर्धन उपकरण के रूप में प्रस्तुत करते थे। उनके क्रोम वेब स्टोर विवरण ने उपयोगकर्ता डेटा सुरक्षा और गोपनीयता-प्रथम डिजाइन पर जोर दिया। उनका वास्तविक व्यवहार — जिसे Astrix Security के विश्लेषण द्वारा पुष्टि की गई — ChatGPT, DeepSeek, और अन्य AI प्लेटफार्मों से पूर्ण वार्तालाप इतिहास को कैप्चर करना था, और फिर उन्हें एक हमलावर-नियंत्रित सर्वर पर भेजना था। कैप्चर की गई वार्तालापों में स्रोत कोड, व्यक्तिगत पहचान योग्य जानकारी, कानूनी रणनीति चर्चाएँ, व्यापार योजनाएँ, और वित्तीय डेटा शामिल थे।
एक्सटेंशन ने "गोपनीय, गैर-पहचान योग्य विश्लेषणात्मक डेटा एकत्र करने" की अनुमति मांगी। उन्होंने वास्तव में पूरी तरह से पहचान योग्य, अत्यधिक संवेदनशील डेटा को अधिकतम निष्ठा पर एकत्र किया।
सुरक्षा उलटा समस्या
जो उपयोगकर्ता विशेष रूप से AI गोपनीयता एक्सटेंशन स्थापित करते हैं, वे ऐसे उपकरणों के लिए एक प्राथमिकता व्यक्त कर रहे हैं जो उनकी AI वार्तालापों की सुरक्षा करते हैं। जनवरी 2026 की घटना ने उस प्राथमिकता का सबसे खराब परिणाम दर्ज किया: गोपनीयता के उद्देश्यों के लिए स्थापित उपकरण स्वयं डेटा निकालने का तंत्र है।
यह केवल एक जोखिम नहीं है जिसे तौला जाना चाहिए — यह एक प्रलेखित परिणाम है जो एक साथ 900,000 उपयोगकर्ताओं को प्रभावित करता है। क्रोम वेब स्टोर की स्वचालित स्कैनिंग ने दुर्भावनापूर्ण व्यवहार का पता नहीं लगाया क्योंकि एक्सटेंशन का डेटा संग्रह विश्लेषणात्मक के रूप में छिपा हुआ था। उपयोगकर्ता समीक्षाएँ समस्या को प्रकट नहीं करतीं क्योंकि उपयोगकर्ताओं को नेटवर्क ट्रैफ़िक में कोई दृश्यता नहीं थी।
Incogni के शोध ने पाया कि 67% AI क्रोम एक्सटेंशन सक्रिय रूप से उपयोगकर्ता डेटा एकत्र करते हैं — यह आंकड़ा दोनों खुलासा किए गए विश्लेषणात्मक संग्रह और अप्रकाशित निकासी को शामिल करता है। उद्यम IT टीमों के लिए जो AI गोपनीयता एक्सटेंशन लागू कर रही हैं, महत्वपूर्ण प्रश्न यह नहीं है कि "क्या यह एक्सटेंशन कोई डेटा एकत्र करता है?" बल्कि "क्या मैं यह सत्यापित कर सकता हूँ कि इस एक्सटेंशन का डेटा प्रवाह आर्किटेक्चरल रूप से वार्तालाप सामग्री को निकालने में असमर्थ है?"
आर्किटेक्चर सत्यापन परीक्षण
विश्वसनीय स्थानीय प्रोसेसिंग के लिए सत्यापन परीक्षण तकनीकी है, घोषणात्मक नहीं: क्या एक्सटेंशन का दावा किया गया स्थानीय प्रोसेसिंग नेटवर्क निगरानी द्वारा स्वतंत्र रूप से सत्यापित किया जा सकता है?
एक एक्सटेंशन जो स्थानीय रूप से PII पहचान करता है — TensorFlow.js, WASM, या एक स्थानीय बाइनरी का उपयोग करके क्लाइंट-साइड पर पहचान मॉडल चलाना — PII पहचान चरण के दौरान शून्य आउटबाउंड नेटवर्क ट्रैफ़िक उत्पन्न करता है। उपयोगकर्ता के कार्यस्थल पर नेटवर्क निगरानी को उपयोगकर्ता के पेस्ट इवेंट और AI प्लेटफार्म को सबमिशन के बीच किसी भी बाहरी सर्वर से कोई कनेक्शन नहीं दिखाना चाहिए। एकमात्र आउटबाउंड ट्रैफ़िक वह अनामीकृत प्रॉम्प्ट होना चाहिए जो AI प्रदाता को जा रहा है।
एक एक्सटेंशन जो ट्रैफ़िक को एक प्रॉक्सी सर्वर के माध्यम से रूट करता है — भले ही प्रॉक्सी को "गोपनीयता-रक्षा रिले" के रूप में वर्णित किया गया हो — उपयोगकर्ता सामग्री को एक तीसरे पक्ष के सर्वर पर भेजता है। प्रॉक्सी के ऑपरेटर की सुरक्षा अब उपयोगकर्ता के खतरे के मॉडल का हिस्सा है।
कॉर्पोरेट अनुमोदित सूची में ब्राउज़र एक्सटेंशन जोड़ने वाली उद्यम IT टीमों के लिए, सत्यापन प्रोटोकॉल है: एक निगरानी नेटवर्क वातावरण में एक्सटेंशन लागू करें, प्रतिनिधि परीक्षण ट्रैफ़िक उत्पन्न करें, और सत्यापित करें कि PII प्रोसेसिंग के दौरान एक्सटेंशन प्रकाशक के सर्वरों के लिए कोई आउटबाउंड कनेक्शन नहीं होता है। जो एक्सटेंशन इस परीक्षण को पास नहीं कर सकते उन्हें उनके घोषित गोपनीयता प्रतिबद्धताओं के बावजूद उद्यम तैनाती के लिए अनुमोदित नहीं किया जाना चाहिए।
स्थानीय प्रोसेसिंग आर्किटेक्चर — जहाँ सभी पहचान क्लाइंट-साइड पर चलती हैं और अनामिकरण चरण के लिए कोई सर्वर-साइड घटक नहीं होता — वह आर्किटेक्चरल संपत्ति है जो एक्सटेंशन के गोपनीयता दावों को स्वतंत्र रूप से सत्यापित करने योग्य बनाती है, बजाय इसके कि प्रकाशक के दावों पर विश्वास करने की आवश्यकता हो।
स्रोत: