العودة إلى المدونةأمان الذكاء الاصطناعي

بعد حادثة الإضافة الضارة التي أثرت على 900 ألف...

في يناير 2026، تم اكتشاف إضافتين ضارتين لمتصفح كروم تم تثبيتهما من قبل أكثر من 900 ألف مستخدم، حيث كانت تقومان بتسريب محادثات كاملة من ChatGPT...

April 16, 20268 دقيقة قراءة
malicious Chrome extensionAI extension security auditextension trust verificationlocal processing architecture900K extension incident

حادثة يناير 2026

تم اكتشاف إضافتين لمتصفح كروم في يناير 2026 — "Chat GPT for Chrome with GPT-5, Claude Sonnet and DeepSeek AI" (أكثر من 600,000 مستخدم) و"AI Sidebar with Deepseek, ChatGPT, Claude and more" (أكثر من 300,000 مستخدم) — حيث تم العثور عليهما يقومان بتسريب سجلات محادثات الذكاء الاصطناعي الكاملة كل 30 دقيقة إلى خادم تحكم عن بعد.

قدمت الإضافات نفسها كأدوات لتعزيز الخصوصية والذكاء الاصطناعي. أكدت أوصافها في متجر كروم على حماية بيانات المستخدم وتصميم يركز على الخصوصية. سلوكها الفعلي — الذي أكدته تحليل شركة Astrix Security — كان التقاط سجلات المحادثات الكاملة من ChatGPT وDeepSeek ومنصات ذكاء اصطناعي أخرى، ثم نقلها إلى خادم يتحكم فيه المهاجم. شملت المحادثات الملتقطة الشيفرة المصدرية، معلومات التعريف الشخصية، مناقشات الاستراتيجيات القانونية، خطط العمل، والبيانات المالية.

طلبت الإضافات إذنًا "لجمع بيانات تحليلية غير قابلة للتعريف". لكنها في الواقع كانت تجمع بيانات حساسة وقابلة للتعريف بالكامل بأقصى دقة.

مشكلة عكس الأمان

المستخدمون الذين يقومون بتثبيت إضافات الخصوصية في الذكاء الاصطناعي يعبرون عن تفضيلهم لأدوات تحمي محادثاتهم في الذكاء الاصطناعي. وثقت حادثة يناير 2026 أسوأ نتيجة لهذا التفضيل: الأداة التي تم تثبيتها لأغراض الخصوصية هي نفسها آلية تسريب البيانات.

هذه ليست مجرد مخاطرة يجب تقييمها — بل هي نتيجة موثقة تؤثر على 900,000 مستخدم في وقت واحد. لم تكشف عمليات الفحص الآلي لمتجر كروم عن السلوك الضار لأن جمع البيانات من الإضافات تم تمويهه كتحليلات. لم تكشف مراجعات المستخدمين عن المشكلة لأن المستخدمين لم يكن لديهم رؤية لحركة الشبكة.

وجدت أبحاث Incogni أن 67% من إضافات كروم للذكاء الاصطناعي تجمع بيانات المستخدم بنشاط — وهي نسبة تشمل كل من جمع التحليلات المعلن عنه والتسريب غير المعلن. السؤال المهم لفرق تكنولوجيا المعلومات في المؤسسات التي تنشر إضافات الخصوصية في الذكاء الاصطناعي ليس "هل تجمع هذه الإضافة أي بيانات؟" ولكن "هل يمكنني التحقق من أن تدفق بيانات هذه الإضافة غير قادر معماريًا على تسريب محتوى المحادثة؟"

اختبار التحقق من العمارة

اختبار التحقق من المعالجة المحلية الموثوقة هو فني، وليس إعلانيًا: هل يمكن التحقق من المعالجة المحلية المزعومة للإضافة بشكل مستقل من خلال مراقبة الشبكة؟

الإضافة التي تعالج اكتشاف معلومات التعريف الشخصية محليًا — بتشغيل نموذج الاكتشاف على جانب العميل باستخدام TensorFlow.js أو WASM أو ثنائي محلي — تنتج صفر حركة مرور شبكية صادرة خلال مرحلة اكتشاف معلومات التعريف الشخصية. يجب أن تُظهر مراقبة الشبكة على محطة عمل المستخدم عدم وجود اتصال بأي خادم خارجي بين حدث لصق المستخدم والتقديم إلى منصة الذكاء الاصطناعي. يجب أن تكون الحركة الصادرة الوحيدة هي المطالبة المجهولة التي تذهب إلى مزود الذكاء الاصطناعي.

الإضافة التي توجه الحركة عبر خادم وكيل — حتى لو تم وصف الوكيل بأنه "وسيط يحافظ على الخصوصية" — ترسل محتوى المستخدم إلى خادم طرف ثالث. أمان مشغل الوكيل هو الآن جزء من نموذج تهديد المستخدم.

بالنسبة لفرق تكنولوجيا المعلومات في المؤسسات التي تضيف إضافات المتصفح إلى القائمة المعتمدة، فإن بروتوكول التحقق هو: نشر الإضافة في بيئة شبكة مراقبة، توليد حركة مرور اختبار تمثيلية، والتحقق من عدم حدوث اتصال صادرة مع خوادم ناشر الإضافة خلال معالجة معلومات التعريف الشخصية. يجب ألا تتم الموافقة على الإضافات التي لا يمكنها اجتياز هذا الاختبار للنشر في المؤسسات بغض النظر عن التزامات الخصوصية المعلنة.

العمارة المعالجة محليًا — حيث يتم تشغيل جميع الاكتشافات على جانب العميل دون مكون على جانب الخادم لخطوة إخفاء الهوية — هي الخاصية المعمارية التي تجعل ادعاءات الخصوصية للإضافة قابلة للتحقق بشكل مستقل، بدلاً من الحاجة إلى الثقة في تأكيدات الناشر.

المصادر:

هل أنت مستعد لحماية بياناتك؟

ابدأ بإخفاء المعلومات الشخصية مع أكثر من 285 نوع كيان عبر 48 لغة.