无法奏效的二元选择
主要企业已禁止使用公共人工智能工具:摩根大通、德意志银行、富国银行、高盛、美国银行、苹果、威瑞森。这些禁令是针对已记录的数据泄露事件和关于向外部人工智能提供商传输机密商业信息的监管担忧而实施的。
但禁令并没有解决问题。
LayerX的2025年分析发现,71.6%的企业人工智能访问现在通过非公司账户进行——员工通过公司设备或用于工作目的的个人设备访问ChatGPT、Claude和Gemini。人工智能禁令创造了一个完全在IT可见性、数据丢失防护控制和合规监控之外运作的影子人工智能生态系统。
Zscaler的2025年《数据风险报告》量化了这种暴露:27.4%的所有输入到企业人工智能聊天机器人的内容包含敏感信息——同比增加156%。这一增长是由于人工智能工具采用的扩展,而禁令并未阻止这一点,加上迁移到绕过任何现有监控的影子人工智能渠道。
为什么禁止会导致更糟糕的结果
竞争压力动态解释了影子人工智能的采用模式。允许人工智能编码辅助的摩根大通竞争对手的开发者能够更快地解决问题,更快地编写文档,并更快地进行原型设计。遵循禁令的摩根大通开发者相较于同行和自己之前使用人工智能工具的经验面临生产力劣势。
在这种情况下,遵守政策的行为——不使用人工智能工具——是需要有意识努力的行为。使用人工智能工具(通过个人账户,在个人设备上)是最不费力的选择。每个使用影子人工智能的个人决策都是一个合理的生产力决策;其总效果是一个合规程序达到了其声明目标的相反结果:人工智能的使用继续以更高的量在一个完全未监控的渠道中进行。
这就是企业人工智能悖论:旨在保护敏感数据的技术控制(禁令)反而将人工智能的使用集中在无法保护敏感数据的渠道中。
MCP架构解决方案
解决这一悖论的方法是一个允许人工智能使用而不是禁止它的技术控制。MCP服务器位于人工智能客户端和人工智能模型API之间。所有提示在传输之前都经过匿名化引擎。敏感数据被替换为令牌。人工智能模型接收到的提示版本包含了真实协助所需的结构和上下文——而没有创建合规暴露的凭证、个人身份信息或专有标识符。
对于一家德国汽车制造商的CISO来说,允许500名开发者使用人工智能编码辅助,同时遵守GDPR:MCP服务器的部署意味着代码库中的专有制造算法在到达Claude或GPT-4的服务器之前被拦截。安全团队可以批准人工智能工具的使用,因为有技术保证敏感内容在未经匿名化的情况下不会离开公司网络。开发者使用Cursor的方式与没有控制时完全相同;审计记录显示了被拦截和替换的内容。
实施这一架构的企业解决了二元选择:人工智能工具被允许,且有一个自动执行数据保护的技术拦截层。影子人工智能的采用减少,因为员工有一个经过批准、受监控的渠道,提供相同的生产力收益。CISO获得了技术控制和审计记录。开发者获得了人工智能访问权限。悖论消失了。
来源: