العودة إلى المدونةأمان الذكاء الاصطناعي

لماذا تفشل تدريبات السياسات في وقف تسريبات بيانات...

77% من مستخدمي الذكاء الاصطناعي في المؤسسات يقومون بنسخ ولصق البيانات في استفسارات الدردشة.

April 15, 20268 دقيقة قراءة
ChatGPT PII leak preventionChrome extension DLPenterprise AI policytechnical controls browsercopy-paste PII protection

مشكلة سلوك النسخ واللصق

77% من مستخدمي الذكاء الاصطناعي في المؤسسات يقومون بنسخ ولصق البيانات في استفسارات الدردشة. هذا النمط السلوكي ليس محصورًا في أقلية غير ملتزمة — بل هو نمط التفاعل السائد لاستخدام أدوات الذكاء الاصطناعي في المؤسسات. عندما يواجه الموظفون وثيقة معقدة، أو مشكلة مع عميل، أو مهمة تحليلية، فإن سير العمل الطبيعي هو: نسخ المحتوى ذي الصلة، لصقه في أداة الذكاء الاصطناعي، والحصول على رد.

هذا سير العمل لا يميز بين المحتوى الذي يحتوي على بيانات شخصية والمحتوى الذي لا يحتوي عليها. تأتي عملية النسخ واللصق قبل قرار التصنيف. بحلول الوقت الذي قام فيه الموظف بلصق المحتوى وقراءة رد الذكاء الاصطناعي، تكون عملية النقل قد حدثت بالفعل. يتم تطبيق تدريب السياسات في لحظة التصنيف — "هل يجب أن ألصق هذا؟" — لكن طبيعة القرار السريعة تعني أن استرجاع السياسة يتدهور تحت الضغط المعرفي، وضغط الوقت، والسلوك المعتاد.

وجدت أبحاث Cyberhaven أن ما يقرب من 40% من الملفات المرفوعة إلى أدوات الذكاء الاصطناعي تحتوي على بيانات تعريف شخصية أو بيانات بطاقة ائتمان. تشمل هذه الأرقام الموظفين الذين يدركون تمامًا سياسات استخدام الذكاء الاصطناعي: إنهم يرفعون الملف الذي يحتاجون للعمل عليه، والذي يحتوي على بيانات العملاء. تعتبر انتهاكات السياسة عرضية لمهمة مشروعة.

لماذا تفشل التدريبات على نطاق واسع

تواجه برامج تدريب السياسات نفس القيود الهيكلية عبر جميع سياقات حماية البيانات: تحاول تعديل أنماط السلوك المتجذرة بعمق من خلال تدخلات تعليمية دورية. الفترات بين جلسات التدريب (عادةً سنوية) تتجاوز الزمن الثابت لتدهور السلوك. الموظفون الذين تلقوا تدريبًا شاملاً حول التعامل مع بيانات الذكاء الاصطناعي في الربع الأول يعملون بشكل أساسي بناءً على العادة في الربع الرابع.

يعكس تحديث قاعدة أمان HIPAA المقترح في مارس 2025 — الذي يتطلب تدقيقات تشفير سنوية — الاعتراف التنظيمي بأن الامتثال للسياسات يتطلب التحقق الدوري من الضوابط التقنية، وليس فقط برامج التدريب. يتضمن مطلب التدقيق أن المنظمين يتوقعون أن تكون الضوابط التقنية هي الآلية الرئيسية وأن يكون التدريب هو الآلية التكميلية.

بالنسبة لتسرب بيانات الذكاء الاصطناعي على وجه الخصوص، فإن السلوك يكون أصعب في منعه من خلال التدريب مقارنة بسلوكيات التعامل مع البيانات القياسية لأنه يحدث في سياق جديد (لم تكن أدوات الذكاء الاصطناعي موجودة عندما تم تشكيل معظم عادات التعامل مع البيانات في المؤسسات) ولأن التسرب لا ينتج عنه عواقب سلبية فورية مرئية للموظف.

بنية اعتراض ملحق Chrome

يعمل ملحق Chrome على مستوى حافظة النسخ — قبل أن يصل المحتوى الملصوق إلى حقل إدخال أداة الذكاء الاصطناعي. الاعتراض يأتي معماريًا قبل قرار المستخدم بالإرسال: يقوم الموظف بنسخ المحتوى من تطبيق عمله، ثم ينتقل إلى علامة تبويب ChatGPT، ويلصق. يكتشف الملحق بيانات تعريف شخصية في محتوى الحافظة في لحظة اللصق، قبل أن يظهر المحتوى في حقل الإدخال.

تظهر نافذة المعاينة للموظف بالضبط ما سيتم إخفاء هويته: "اسم العميل 'ماريا شميت' → '[PERSON_1]'; البريد الإلكتروني 'maria.schmidt@company.de' → '[EMAIL_1]'." يمكن للموظف المتابعة مع النسخة المجهولة أو إلغاء اللصق إذا كانت الاستبدالات المحددة غير مقبولة.

تخدم نافذة المعاينة غرضين. أولاً، توفر الشفافية — يفهم الموظفون ما تفعله الأداة، مما يبني الثقة المناسبة ويقلل من الانطباع بأن ضوابط الخصوصية هي مراقبة. ثانيًا، تجعل قرار إخفاء الهوية صريحًا بدلاً من صامت: يؤكد الموظف كل عملية إخفاء هوية، مما يخلق لحظة نفسية حيث يتم اتخاذ قرار التصنيف (هل هذه بيانات تعريف شخصية؟) من قبل إنسان بدلاً من أن يتم أتمتتها.

لفريق دعم العملاء في شركة تجارة إلكترونية أوروبية: يقوم الوكلاء بصياغة الردود باستخدام ChatGPT، ويلصقون مراسلات العملاء التي تحتوي على أسماء، وأرقام طلبات، وعناوين. يقوم ملحق Chrome باعتراض كل لصق، ويخفي البيانات الشخصية، ويقدم الوكيل الطلب المجهول. تشير ردود ChatGPT إلى الرموز المجهولة؛ يمكن للوكيل قراءة اقتراحات الذكاء الاصطناعي ودمجها في الرد الفعلي على العميل. يتم تلبية تقليل البيانات وفقًا للمادة 5 من GDPR؛ ويتم الحفاظ على تحسين جودة الدعم من خلال مساعدة الذكاء الاصطناعي.

المصادر:

هل أنت مستعد لحماية بياناتك؟

ابدأ بإخفاء المعلومات الشخصية مع أكثر من 285 نوع كيان عبر 48 لغة.