Проблема «вставив і забув»: чому автоматичне підсвічування PII змінює поведінку, а не лише відповідність
Чому традиційні навчання щодо відповідності не запобігають інцидентам AI
Після інциденту Samsung (березень 2023 року) — коли інженери ненавмисно завантажили конфіденційний вихідний код Samsung до ChatGPT — організації відповіли стандартними заходами:
- Оновлені навчання щодо відповідності: «Не ділитися конфіденційними даними з AI-інструментами»
- Нові розділи у посібниках зі застосування
- Опитування для підтвердження того, що співробітники пройшли навчання
Перевірка через 6 місяців: 73% тих самих співробітників все ще вставляли PII в AI-інструменти (дослідження LayerX 2024).
Поведінкова механіка проблеми
Проблема не є поведінковою в традиційному розумінні — це питання пам'яті та контексту. Коли співробітник копіює файл підтримки клієнта і вставляє його в ChatGPT для узагальнення, він не «забуває» навчання. Він зосереджений на своєму завданні: отримати узагальнення. Правило конфіденційності живе в іншому контексті.
Рішення: підсвічування PII в точці вставлення
Chrome Extension підходить до проблеми поведінкового дизайну:
- Співробітник копіює файл підтримки клієнта (містить ім'я, email, номер облікового запису)
- Вставляє в ChatGPT або Claude
- До надсилання: Вставлений текст підсвічується — всі PII позначаються інлайн
- Спливаюче повідомлення: «Ми виявили 3 елементи PII у вашому вводі. Хочете їх анонімізувати перед надсиланням?»
- Одним натисканням: анонімізуйте та надсилайте
Ефект: Підсвічування відбувається в точці рішення — не в навчальному класі місяць тому.
Джерела: