返回博客人工智能安全

您的支持团队不知道的每日 3.8 次 PII 暴露

每位使用 ChatGPT 的支持代理每天平均会粘贴 3.8 次敏感数据。对于一个 100 人的团队来说,这意味着每天有 380 次 GDPR 暴露事件。在 2024 年的欧盟审计中,63% 的 ChatGPT 数据包含 PII。这不是安全问题,而是工作流程问题。

April 18, 20268 分钟阅读
accidental PII exposuresupport team ChatGPTCyberhaven 3.8 pastesworkflow PII protectionGDPR daily exposure

每日暴露数学

Cyberhaven 的研究发现,企业员工平均每天向 ChatGPT 粘贴 3.8 次敏感数据。对于一个 100 人的客户支持团队来说,这个数字转化为每天有 380 次敏感数据进入 ChatGPT——每次都可能构成根据第 5(1)(c) 条款的 GDPR 数据最小化违规,该条款要求个人数据 "适当、相关且限于必要的内容。"

这个 3.8 的数字并不是忽视政策的员工的数字。它反映了普通的工作流程行为:代理将客户通信复制以草拟回复,粘贴投诉文本以生成同情的后续回复,包含账户详细信息以获取上下文相关的建议。每次粘贴都是一个合法的生产力行为,偶然包含了个人数据。员工并没有决定暴露客户数据;暴露是决定高效使用 AI 工具的副产品。

2024 年的欧盟审计发现,63% 的 ChatGPT 用户数据包含个人可识别信息。只有 22% 的用户 知道他们可以通过 ChatGPT 的设置选择不参与数据收集。这个组合——大多数数据包含 PII,大多数用户对控制措施不知情——在任何未实施技术控制的组织中产生了系统性的每日暴露。

为什么这种行为无法通过培训消除

复制粘贴工作流程是深深习惯性的。用户几十年来一直将文本复制和粘贴作为基本的计算机交互。将 AI 聊天机器人作为粘贴文本的目标并没有改变基本行为;它将已建立的模式扩展到新的目标。

政策培训如果说 "不要将客户 PII 粘贴到 ChatGPT 中",就要求员工在一个自然不包括暂停的习惯性动作中插入一个分类决策——"这段文本是否包含 PII?"。随着行为恢复为习惯,培训效果会减弱。每个单独的粘贴决策都是一个低风险的微决策;每天 380 次决策的累积效应是一个系统性的合规风险,政策培训无法可靠地解决。

技术解决方案在习惯形成的层面上运作:粘贴动作本身。Chrome 扩展在粘贴时拦截剪贴板内容,内容在到达输入字段之前。拦截并不是政策执行障碍(用户始终可以覆盖)——它是一个透明工具。预览模态显示员工检测到的内容,让他们在继续之前有一瞬间的可见性来做出分类决策。

对于德国电子商务公司支持团队的负责人来说,草拟客户投诉的回复:工作流程仍然是 "复制投诉,粘贴到 ChatGPT,生成回复"。Chrome 扩展增加了 2 秒的插曲,代理看到检测到的姓名、地址和订单号,并将在提交前进行匿名处理。代理点击继续。工作流程继续。合规违规没有发生。

来源:

准备好保护您的数据了吗?

开始使用 285 种实体类型在 48 种语言中匿名化 PII。