返回博客人工智能安全

为什么政策培训无法阻止ChatGPT PII泄露 — 以及哪些技术控制真正有效

77%的企业AI用户将数据复制粘贴到聊天机器人查询中。近40%的上传文件包含PII或PCI数据。2025年3月提议的HIPAA安全规则更新要求进行年度加密审计。浏览器级技术控制是唯一可靠的预防措施。

April 15, 20268 分钟阅读
ChatGPT PII leak preventionChrome extension DLPenterprise AI policytechnical controls browsercopy-paste PII protection

复制粘贴行为问题

77%的企业AI用户将数据复制粘贴到聊天机器人查询中。这种行为模式并不局限于不合规的少数人 — 它是企业AI工具使用的主要交互模式。当员工遇到复杂文档、客户问题或分析任务时,自然的工作流程是:复制相关内容,将其粘贴到AI工具中,获取响应。

这种工作流程并未区分包含个人数据的内容和不包含个人数据的内容。复制粘贴动作在分类决策之前发生。当员工粘贴内容并阅读AI的响应时,传输已经发生。政策培训是在分类的瞬间应用的 — “我应该粘贴这个吗?” — 但决策的瞬息万变意味着在认知负荷、时间压力和习惯行为下,政策回忆会下降。

Cyberhaven的研究发现,近40%的上传到AI工具的文件包含PII或PCI数据。这个数字包括那些完全了解AI使用政策的员工:他们上传需要处理的文件,而这些文件恰好包含客户数据。政策违规是合法任务的附带结果。

为什么培训在规模上失败

政策培训项目在所有数据保护背景下面临相同的结构性限制:它们试图通过定期教育干预来修改根深蒂固的行为模式。培训课程之间的间隔(通常为一年)超过了行为衰退的时间常数。在第一季度接受了全面培训的员工在第四季度主要依赖习惯操作。

2025年3月提议的HIPAA安全规则更新 — 要求进行年度加密审计 — 反映了监管机构的认识,即政策合规需要定期验证技术控制,而不仅仅是培训项目。审计要求意味着监管机构期望技术控制成为主要机制,而培训成为补充机制。

对于AI数据泄露而言,通过培训来预防这种行为比标准数据处理行为更难,因为它发生在一个新颖的背景中(当大多数企业数据处理习惯形成时,AI工具并不存在),并且泄露不会给员工带来可见的即时负面后果。

Chrome扩展拦截架构

Chrome扩展在剪贴板层面操作 — 在粘贴内容到达AI工具的输入字段之前。拦截在用户决定提交之前的架构上:员工从其工作应用程序中复制内容,切换到ChatGPT标签页,然后粘贴。扩展在粘贴时检测剪贴板内容中的PII,在内容出现在输入字段之前。

预览模态显示员工将被匿名化的内容:“客户姓名'Maria Schmidt' → '[PERSON_1]';电子邮件'maria.schmidt@company.de' → '[EMAIL_1]'。”员工可以选择继续使用匿名版本,或者如果具体替换不可接受,则取消粘贴。

预览模态有两个目的。首先,它提供透明度 — 员工了解工具的工作原理,这建立了适当的信任,并减少了隐私控制被视为监视的感觉。其次,它使匿名化决策明确,而不是默默进行:员工确认每个匿名化操作,创造了一个心理时刻,在这个时刻,分类决策(这是PII吗?)由人类做出,而不是自动化处理。

对于一家欧洲电子商务公司的客户支持团队:代理使用ChatGPT草拟回复,粘贴包含姓名、订单号和地址的客户通信。Chrome扩展拦截每次粘贴,匿名化个人数据,代理提交匿名提示。ChatGPT的响应引用匿名化的标记;代理可以阅读AI的建议并将其纳入实际的客户回复中。GDPR第5条数据最小化得以满足;AI辅助的支持质量提升得以保持。

来源:

准备好保护您的数据了吗?

开始使用 285 种实体类型在 48 种语言中匿名化 PII。