anonym.legal
Назад к блогуБезопасность ИИ

Искусственный интеллект теперь является #1 вектором...

77% сотрудников вставляют конфиденциальные данные в инструменты ИИ. GenAI теперь составляет 32% всех корпоративных утечек данных.

February 17, 20268 мин чтения
AI securityChatGPTdata leakageenterprise security

Кризис утечки данных ИИ

В октябре 2025 года LayerX Security опубликовала данные, которые должны встревожить каждого CISO: 77% сотрудников вставляют данные в инструменты GenAI, при этом 82% этой активности происходит из неуправляемых личных аккаунтов.

Еще более тревожный факт: GenAI теперь составляет 32% всех корпоративных утечек данных — что делает его #1 вектором несанкционированного перемещения данных в компании.

Это не проблема будущего. Это происходит прямо сейчас, каждый день, в вашей организации.

Цифры поражают

НаходкаДанныеИсточник
Сотрудники, вставляющие данные в ИИ77%LayerX 2025
Утечка данных через инструменты ИИ32%LayerX 2025
Использование ChatGPT через неуправляемые аккаунты67%LayerX 2025
Ежедневные вставки через личные аккаунты14 на сотрудникаLayerX 2025
Вставки, содержащие конфиденциальные данные3+ в деньLayerX 2025

В среднем сотрудники выполняют 14 вставок в день через личные аккаунты, при этом как минимум три содержат конфиденциальные данные. Традиционные инструменты DLP, построенные вокруг мониторинга файлов, даже не регистрируют эту активность.

Почему запрет на ИИ не работает

Samsung пыталась запретить ChatGPT после того, как сотрудники утекли исходный код. Это не сработало.

Реальность такова, что инструменты ИИ делают сотрудников значительно более продуктивными. Согласно исследованиям, разработчики, использующие ИИ-помощников, выполняют задачи на 55% быстрее. Когда вы запрещаете ИИ, сотрудники либо:

  1. Используют его в любом случае через личные аккаунты (67% уже делают это)
  2. Теряют продуктивность и становятся разочарованными
  3. Уходят к конкурентам, которые принимают ИИ

Ответ не в запрете — а в защите.

Утечка расширения Chrome с 900,000 пользователями

В декабре 2025 года OX Security обнаружила два вредоносных расширения Chrome, которые украли разговоры ChatGPT и DeepSeek у 900,000+ пользователей.

Одно из этих расширений имело значок "Featured" от Google — предполагаемый знак надежности.

Расширения работали следующим образом:

  • Перехватывали разговоры в чате в реальном времени
  • Хранили данные локально на машинах жертв
  • Утекали партии данных на серверы командования и управления каждые 30 минут

Еще хуже: отдельное расследование показало, что "бесплатные VPN" расширения с более чем 8 миллионами загрузок захватывали разговоры ИИ с июля 2025 года.

Решение: Перехватить до отправки

Единственный способ безопасно использовать ИИ, защищая конфиденциальные данные, — это анонимизировать PII до того, как они достигнут модели ИИ.

Именно это делает расширение Chrome и сервер MCP от anonym.legal:

Расширение Chrome

  • Перехватывает текст до того, как вы отправите его в ChatGPT, Claude или Gemini
  • Автоматически обнаруживает и анонимизирует PII (имена, электронные почты, номера социального страхования и т.д.)
  • Заменяет конфиденциальные данные токенами: "Джон Смит" → "[PERSON_1]"
  • Деанонимизирует ответы ИИ, чтобы вы видели оригинальные имена

Сервер MCP (для разработчиков)

  • Интегрируется с Claude Desktop, Cursor и VS Code
  • Прозрачный прокси — вы взаимодействуете с ИИ как обычно
  • PII анонимизируются до того, как запросы достигнут модели
  • Работает с вашими существующими рабочими процессами

Что защищается

Оба инструмента обнаруживают и анонимизируют 285+ типов сущностей на 48 языках:

  • Личные: имена, адреса электронной почты, номера телефонов, даты рождения
  • Финансовые: номера кредитных карт, банковские счета, IBAN
  • Государственные: номера социального страхования, номера паспортов, водительские удостоверения
  • Здравоохранение: номера медицинских карт, идентификаторы пациентов
  • Корпоративные: идентификаторы сотрудников, внутренние номера счетов

Даже если ваша история чата ИИ скомпрометирована (как у тех 900,000 пользователей), PII не подлежит восстановлению — только анонимизированные токены.

Реализация: 5 минут до защиты

Расширение Chrome

  1. Скачайте с anonym.legal/features/chrome-extension
  2. Войдите в свою учетную запись anonym.legal
  3. Посетите ChatGPT, Claude или Gemini
  4. Печатайте как обычно — PII автоматически обнаруживаются и анонимизируются перед отправкой

Сервер MCP (для Claude Desktop)

Добавьте в ваш claude_desktop_config.json:

{
  "mcpServers": {
    "anonym-legal": {
      "command": "npx",
      "args": ["-y", "@anthropic/mcp-server-anonym-legal"],
      "env": {
        "ANONYM_API_KEY": "your-api-key"
      }
    }
  }
}

Цена бездействия

Подумайте, что под угрозой:

  • Финансовые данные, вставленные в ИИ для анализа
  • Информация о клиентах, использованная в запросах поддержки
  • Исходный код, поделенный для отладки
  • Юридические документы, резюмируемые ИИ
  • Медицинские записи, обработанные для получения инсайтов

Одна утечка данных стоит в среднем $4.88 миллиона (IBM 2024). Средняя стоимость утечки в здравоохранении теперь составляет $7.42 миллиона (IBM 2025) — снизилась с $9.77 миллиона в 2024 году, но все еще значительно превышает все другие отрасли.

Расширение Chrome бесплатное. Сервер MCP включен в Pro планы, начиная с €15 в месяц.

Заключение

ИИ здесь, чтобы остаться. Ваши сотрудники уже используют его — вопрос в том, делают ли они это безопасно.

Данные LayerX ясно показывают: традиционные подходы к безопасности слепы к утечкам данных ИИ. Вам нужны инструменты, специально разработанные для защиты данных до того, как они достигнут моделей ИИ.

Начните защищать вашу организацию сегодня:


Источники:

Готовы защитить ваши данные?

Начните анонимизацию PII с 285+ типов сущностей на 48 языках.