חזרה לבלוגאבטחת AI

AI: וקטור ה-#1 לדליפת נתונים

77% מהעובדים משתמשים בהדבקת נתונים רגישים לכלים עם AI. GenAI אחראי כעת לעד 32% מכל דליפות הנתונים הקורפוראטיביים. למד כיצד להגן על הארגון שלך.

February 17, 20268 דקות קריאה
AI securityChatGPTdata leakageenterprise security

משבר דליפת הנתונים של AI

באוקטובר 2025, LayerX Security פרסמה ממצאים שצריכים להדאיג כל CISO: 77% מהעובדים משתמשים בהדבקת נתונים לכלים עם GenAI, כאשר 82% מפעילות זו מגיעות מחשבונות אישיים בלתי מנוהלים.

עוד יותר מדאיג: GenAI אחראי כעת לעד 32% מכל דליפות הנתונים הקורפוראטיביים—מה שהופכו לווקטור ה-#1 לתנועת נתונים בלתי מורשית בחברה.

זה לא בעיה בעתיד. זה קורה עכשיו, כל יום, בארגון שלך.

המספרים מדהימים

ממצאנתוניםמקור
עובדים משתמשים בהדבקת נתונים ל-AI77%LayerX 2025
דליפת נתונים דרך כלים עם AI32%LayerX 2025
שימוש ב-ChatGPT דרך חשבונות בלתי מנוהלים67%LayerX 2025
הדבקות יומיות דרך חשבונות אישיים14 לעובדLayerX 2025
הדבקות המכילות נתונים רגישים3+ ביוםLayerX 2025

בממוצע, עובדים משדרים 14 הדבקות ביום דרך חשבונות אישיים, כאשר לפחות שלוש מכילות נתונים רגישים. כלים DLP מסורתיים, שנבנו סביב ניטור ממוקד בקובצים, אפילו לא רושמים פעילות זו.

למה איסור על AI לא עובד

Samsung ניסתה לאסור על ChatGPT לאחר שעובדים דיללו קוד מקור. זה לא עבד.

המציאות היא שכלים עם AI הופכים עובדים למשמעותית יותר פרודוקטיביים. על פי מחקר, מפתחים המשתמשים בעוזרי AI משלימים משימות 55% מהר יותר. כאשר אתה אוסר על AI, עובדים בדרך כלל:

  1. משתמשים בו בכל זאת דרך חשבונות אישיים (67% כבר עושים זאת)
  2. מאבדים פרודוקטיביות והופכים לתסכולים
  3. עוזבים לתחרויות המאמצות AI

התשובה היא לא איסור—היא הגנה.

הפרצה של הרחבות Chrome של 900,000 משתמשים

בדצמבר 2025, OX Security גילתה שתי הרחבות Chrome זדוניות שגנבו שיחות ChatGPT ו-DeepSeek מ900,000+ משתמשים.

לאחת מהרחבות אלה היה הבאג 'Featured' של Google—הסימן המדומיין של אמינות.

הרחבות עבדו על ידי:

  • יציאה לשיחות צ'אט בזמן אמת
  • אחסון נתונים במקומית במכונות הקורבנות
  • ייצוא סיוקים לשרתי שליטה וביקורת כל 30 דקות

עוד גרוע יותר: חקירה נפרדת גילתה שהרחבות 'VPN חינם' עם יותר מ8 מיליון הורדות הצליחו לתפוס שיחות AI מאז יולי 2025.

הפתרון: יציאה לפני הגשה

הדרך היחידה להשתמש בטוח בـ AI תוך הגנה על נתונים רגישים היא ביטול זיהוי PII לפני שהוא מגיע לדגם ה-AI.

זה בדיוק מה שעושה ההרחבה Chrome של anonym.legal ו-MCP Server:

הרחבת Chrome

  • יציאה לטקסט לפני שתשלח אותו ל-ChatGPT, Claude או Gemini
  • זיהוי וביטול זיהוי אוטומטי של PII (שמות, כתובות אימייל, SSNs וכו')
  • החלפת נתונים רגישים באסימונים: 'John Smith' → '[PERSON_1]'
  • ביטול זיהוי אוטומטי של תגובות AI כדי שתראה את השמות המקוריים

MCP Server (עבור מפתחים)

  • שילוב עם Claude Desktop, Cursor ו-VS Code
  • פרוקסי שקוף—אתה מקיים אינטראקציה בדרך כלל עם AI
  • PII מבוטל זיהוי לפני שהשלכות מגיעות לדגם
  • עובד עם זרימת העבודה הקיימת שלך

מה מוגן

שני הכלים מזהים ובוטלים 285+ סוגי ישויות על פני 48 שפות:

  • אישי: שמות, כתובות אימייל, מספרי טלפון, תאריכי לידה
  • פיננסי: מספרי כרטיס אשראי, חשבונות בנק, IBANs
  • ממשלתי: SSNs, מספרי דרכון, רישיונות נהיגה
  • בריאות: מספרי תיקיות רפואיות, מעריפים חולה
  • קורפוראטיבי: מעריפים עובדים, מספרי חשבון פנימיים

אפילו אם היסטוריית ה-AI שלך היא בפרץ (כמו 900,000 משתמשים אלה), אין PII מעורבי—רק אסימונים בלתי מזוהים.

יישום: 5 דקות להגנה

הרחבת Chrome

  1. הורד מ-anonym.legal/features/chrome-extension
  2. התחבר עם חשבון anonym.legal שלך
  3. בקרו ב-ChatGPT, Claude או Gemini
  4. הקלד בדרך כלל—PII זוהה וביטול זיהוי אוטומטי לפני שליחה

MCP Server (עבור Claude Desktop)

הוסף ל-claude_desktop_config.json שלך:

{
  "mcpServers": {
    "anonym-legal": {
      "command": "npx",
      "args": ["y", "@anthropic/mcp-server-anonym-legal"],
      "env": {
        "ANONYM_API_KEY": "your-api-key"
      }
    }
  }
}

עלות חוסר פעילות

חשוב על מה שסוג סיכון:

  • נתונים פיננסיים משודרים ל-AI לניתוח
  • מידע קוד קצר המשמש בשאלות תמיכה
  • קוד מקור משודר לניפוי שגיאות
  • מסמכים משפטיים מסוכמים על ידי AI
  • רשומות בריאות מעובדות לתובנות

פרץ נתונים יחיד עולה בממוצע .88 מיליון (IBM 2024). ממוצע פרץ בריאות עולה כעת .42 מיליון (IBM 2025)—ירידה מ-.77 מיליון ב-2024, אך עדיין עולה משום תעשייה אחרת.

הרחבת Chrome היא בחינם. ה-MCP Server נכלל בתוכניות Pro החל מ-€15/חודש.

סיכום

AI הוא כאן להישאר. העובדים שלך כבר משתמשים בו—השאלה היא האם הם עושים זאת בטוח.

הממצאים של LayerX מובהרים: גישות אבטחה מסורתיות עיוורות לדליפת נתונים של AI. אתה זקוק לכלים שתוכננו במיוחד להגנה על נתונים לפני שהם מגיעים לדגמי AI.

התחל להגן על הארגון שלך היום:


מקורות:

מוכן להגן על הנתונים שלך?

התחל לאנונימיזציה של PII עם 285+ סוגי ישויות ב-48 שפות.