返回博客法律科技

在法庭上捍卫您的编辑:为什么 AI 信心评分现在是法律要求

一位法官询问为什么 47% 的文件被编辑。答案“AI 标记了它”在法律上是不可辩护的。以下是 2025 年可辩护的自动化编辑实际需要的内容。

March 22, 20268 分钟阅读
defensible redactionAI confidence scorese-discovery audit trailprivilege log requirementslegal tech compliance

“AI 做的”辩护在法庭上失败

自动化编辑工具创造了一种新的法律风险:无法解释、记录或辩护 AI 系统所做的编辑决定。当法官、对方律师或发现特别法官询问为什么特定内容被编辑时,“算法标记了它”并不是满足联邦民事诉讼规则 26(b)(5) 特权日志要求的答案。

FRCP 规则 26(b)(5) 要求在特权或保护的主张下扣留可发现信息的各方“明确提出主张”,并“描述未生产或披露的文件、通信或有形事物的性质——并以一种不揭示特权或保护信息的方式,使其他各方能够评估该主张。”

对于产生“我们删除这个是因为 ML 模型这么说”的输出的自动化编辑系统,该描述是不够的。在不知道系统检测到什么以及为什么的情况下,无法评估特权主张。

摩根·刘易斯分析:过度编辑作为主动争议

摩根·刘易斯 2025 年第一季度电子发现关键主题报告将过度编辑确定为联邦诉讼中的电子发现争议的主动来源。这一趋势反映了自动化编辑工具的采用与未能以适当的精度阈值配置这些工具的结合。

当仅使用 ML 的编辑系统以高灵敏度应用统一检测——旨在确保召回,捕获所有可能敏感的内容——它不可避免地将非特权内容标记为特权。重要事件的日期因为恰好出现在某个名字附近而被编辑。作为展品引用的数字因为检测引擎没有文档上下文而被编辑。

结果是对方律师对特定编辑提出质疑,认为其没有正当理由。制作方必须解释每个被质疑的编辑——如果编辑是由无法提供每个实体理由的系统做出的,则无法提供解释。

可辩护的自动化编辑所需的内容

法院在评估被质疑的编辑时应用特定文档标准。问题不是“这个系统总体上准确吗?”而是“对于这个特定文档中的这个特定编辑,扣留该内容的依据是什么?”

可辩护的自动化编辑需要三个许多 AI 编辑工具未提供的能力:

每个实体的信心评分: 每个编辑必须可追溯到具有记录的信心水平的检测事件。“基于 NLP 模型以 94% 的信心检测到的姓名”是可辩护的。“被 ML 标记”则不是。

实体类型分类: 每个编辑必须可追溯到映射到公认特权类别的实体类型(人名、社会安全号码、出生日期等)。这允许特权日志在不揭示受保护内容的情况下描述扣留的依据。

阈值可审计性: 配置必须是可记录的——应用了哪些敏感性阈值,包含了哪些实体类型,排除了哪些。当对方律师质疑编辑时,制作方必须能够提供所用配置并解释其适当性。

83% 的治理要求

IAPP 2025 年的研究发现,83% 的 AI 治理框架要求在 AI 输入层进行数据最小化。这代表了一个重要的演变:AI 治理框架不再仅仅关注 AI 模型输出。它们越来越关注输入到 AI 系统中的内容——特别是,在数据到达 AI 提供者之前,敏感数据是否已被最小化。

对于在文档审查中使用 AI 工具的法律团队,这一治理要求具有直接的影响:在 AI 处理之前最小化 PII 的同样义务适用于用于文档审查过程中的 AI 工具。使用 AI 文档审查工具的法律团队必须确保该工具的输入得到了适当的最小化。

信心评分审计记录(用于特权争议的可辩护性)与输入最小化(用于 AI 治理合规性)的结合定义了 2025 年 AI 辅助法律工作的合规姿态。

建立审计记录

对于实施可辩护的自动化编辑的法律团队,审计记录必须捕获:

  • 文档标识符
  • 检测到的实体(类型和信心评分)
  • 应用的编辑操作(替换为“[PERSON NAME]”与黑色矩形)
  • 使用的配置版本
  • 处理的日期和时间

该审计记录具有双重功能:它支持对争议生产的特权日志要求,并向监管机构和 AI 治理审计员证明在敏感内容到达外部 AI 系统之前满足了数据最小化义务。

对可配置性和审计记录生成的投资不是开销。它是可以向法官、对方律师、监督机构或内部 AI 治理委员会辩护的编辑实践的基础。

来源:

准备好保护您的数据了吗?

开始使用 285 种实体类型在 48 种语言中匿名化 PII。