返回博客人工智能安全

摩根大通、高盛、苹果:为什么企业AI禁令无效——以及什么才有效

27.4%的企业AI聊天机器人内容包含敏感数据——同比增长156%。然而,71.6%的企业AI访问通过非企业账户绕过控制。AI禁令时代已经结束。以下是实际有效的措施。

March 9, 20269 分钟阅读
enterprise AI securityChatGPT banAI data controlsshadow AI

企业AI禁令潮

在过去两年中,世界上许多最大的企业禁止使用公共AI工具:

摩根大通、德意志银行、富国银行、高盛、美国银行、苹果和威瑞森等组织实施了对员工使用ChatGPT和类似工具的限制。

触发因素是三星。在2023年,三星解除了一项内部ChatGPT禁令——在一个月内,发生了三起独立的源代码泄露事件。员工将半导体数据库代码、缺陷检测程序代码和内部会议记录粘贴到ChatGPT中以获得帮助。一旦提交,数据就存储在OpenAI的服务器上。三星没有机制来检索或删除这些数据。禁令再次被重新实施。

三星案例成为全球安全团队的参考事件:如果一家拥有专门安全团队的高科技公司无法阻止员工向AI工具泄露知识产权,那么唯一的选择就是完全阻止这些工具。

或者说,推理就是这样。

禁令失败的原因

27.4%的所有输入到企业AI聊天机器人的内容包含敏感信息——同比增长156%Zscaler 2025 数据风险报告)。

这个数字反映了禁令实施后的情况:员工继续使用AI工具。他们只是转向了非企业账户。

71.6%的企业AI访问现在通过非企业账户进行,绕过企业DLP控制(LayerX 2025 企业GenAI安全报告)。

禁令并没有阻止AI的使用。它将AI使用推向地下,变得不那么可见、不那么受控且不那么可审计。一个通过企业账户使用ChatGPT的开发者——生成日志、触发DLP警报,至少对安全操作可见——转而通过其个人账户在企业设备上使用它。完全相同的数据。完全没有可见性。

这是在个人账户可以使用相同服务的时代中工具禁令的根本失败模式:禁止企业账户并不禁止行为。

Zscaler 数据风险报告:那些提示中实际包含什么

Zscaler 2025 数据风险报告提供了员工实际发送给企业AI聊天机器人的内容的最详细图景。27.4%的敏感数据数字按类别细分:

  • 专有商业信息和商业秘密
  • 客户数据(姓名、联系信息、账户详情)
  • 员工个人信息
  • 源代码(包括嵌入凭证的代码)
  • 财务数据(未发布的收益、交易条款、合同价值)
  • 法律通信和特权信息

AI提示中敏感数据同比增长156%(Zscaler 2025)并不主要反映员工变得不小心。这反映了AI工具采用本身的增长。随着越来越多的员工将AI工具用于更多任务,进入这些工具的敏感数据的绝对量成比例增长。

AI限制的生产力成本

禁止AI的安全理由很简单。反对它的生产力理由同样明确。

研究一致发现,AI辅助为知识工作者带来了显著的生产力提升:

  • 使用AI编码助手的开发者完成任务更快
  • 使用AI进行文件审查的法律专业人士每小时处理更多文件
  • 使用AI进行响应草拟的客户支持团队处理更多工单

当企业禁止开发者使用AI,而竞争对手可以自由使用时,竞争劣势是显而易见的。当分析师必须在没有AI帮助的情况下工作,而他们在竞争对手公司中同事却常规使用AI时,产出差距随着时间的推移而加剧。

71.6%的个人账户绕过率不仅反映了个别规则的违反,还反映了理性的经济行为:AI带来的生产力提升足够大,以至于员工宁愿接受政策违规的风险,也不愿放弃工具。

禁止的技术替代方案

禁止AI的安全担忧是合理的:敏感数据流向外部AI提供商确实带来了风险。解决方案是从技术上消除这种风险——而不是接受生产力损失以换取员工无论如何会绕过的禁令。

技术方法是:在数据到达AI模型之前对敏感数据进行匿名化

考虑一个开发者将包含客户标识符的数据库查询粘贴到Claude中以获得优化帮助的情况。通过技术控制:

  1. 开发者粘贴查询(包含客户ID、账户号码、个人可识别信息)
  2. 匿名化层在传输前拦截
  3. 客户ID变为"[ID_1]",账户号码变为"[ACCT_1]",姓名变为"[CUSTOMER_1]"
  4. 匿名化查询到达Claude
  5. Claude的响应(使用相同的标记)被返回
  6. 开发者看到带有标记的响应——这足以理解优化建议

Claude没有处理任何真实的客户数据。敏感信息从未离开企业网络。开发者获得了他们所需的技术支持。安全团队没有任何调查内容。

开发者的MCP服务器架构

对于使用Claude Desktop或Cursor IDE的开发者——主要的AI编码工具——模型上下文协议(MCP)提供了透明的代理架构。

anonym.legal的MCP服务器位于开发者的AI客户端和AI模型API之间。通过MCP协议传输的所有文本——包括文件内容、代码片段、错误消息、配置文件和自然语言指令——在到达AI模型之前都经过匿名化引擎。

从开发者的角度来看,他们正常使用Claude或Cursor。匿名化是不可见的。

从安全团队的角度来看,没有专有代码、凭证或客户数据以可识别的形式离开网络。AI模型处理匿名化版本;响应会自动为开发者去匿名化。

该架构直接解决了三星问题:那些将源代码粘贴到ChatGPT中的员工本应提交匿名化代码,其中专有算法细节在传输前已被标记替换。

浏览器基础AI的Chrome扩展架构

MCP服务器解决了IDE集成的AI使用。基于浏览器的AI使用——Claude.ai、ChatGPT、Gemini——需要不同的技术层。

Chrome扩展在文本提交到AI服务之前通过浏览器界面拦截文本。相同的匿名化引擎适用:姓名、公司标识符、源代码秘密、财务数字和其他敏感内容在提示到达AI提供商的服务器之前被替换为标记。

MCP服务器(IDE)+ Chrome扩展(浏览器)的组合覆盖了企业环境中AI接触点的全范围。

建立商业案例

对于向其执行团队提出这种方法的CISO,商业案例有三个组成部分:

1. 相当于禁令的安全性——就实际到达外部AI提供商的内容而言,匿名化提示不包含可恢复的敏感信息。AI提供商系统的泄露不会对组织的客户、知识产权或运营产生任何有价值的信息。

2. 零生产力牺牲——开发者、分析师和知识工作者继续正常使用AI工具。匿名化是透明的。输出质量没有变化,因为AI模型在伪匿名内容上同样有效。

3. 消除绕过问题——71.6%的个人账户绕过率反映了员工选择生产力而非政策合规。当员工可以通过企业账户无风险地使用AI工具时,绕过动机消失。安全团队重新获得对AI使用的可见性。

禁令后的行动计划

对于目前实施AI禁令并正在重新考虑的企业,过渡行动计划:

第一阶段(第1-2周):通过Chrome企业策略将Chrome扩展部署到所有企业设备。这立即为已经通过个人账户绕过限制的员工提供了浏览器级别的PII拦截。

第二阶段(第3-4周):将MCP服务器部署到开发者工作站。为组织特定的敏感标识符(内部产品代码、客户账户格式、专有技术术语)配置自定义实体模式。

第三阶段(第2个月):解除企业账户的AI使用政策禁令。员工现在可以通过企业账户在技术控制到位的情况下使用AI工具。

第四阶段(持续进行):监控匿名化活动(哪些类别的数据被最频繁地匿名化),以确定安全培训优先级并调整实体检测配置。

触发企业AI禁令潮的三星事件反映的是安全失败,而不是AI工具不可避免的特性。此时不存在的技术控制现在已经存在。问题是安全团队是否会部署它们,还是继续依赖于71.6%的员工已经绕过的禁令。


anonym.legal的MCP服务器和Chrome扩展提供了使企业AI采用与数据安全兼容的技术控制层。这两种工具透明地工作——员工正常使用AI;敏感数据在到达外部AI提供商之前被匿名化。

来源:

准备好保护您的数据了吗?

开始使用 285 种实体类型在 48 种语言中匿名化 PII。