咨询热线:

13905046298

0594-2261218

您所在的位置: 福建壶兰律师事务所 >律所动态

首席律师

吴国章律师 吴国章律师,男,1997年毕业于华东政法大学法律系。1999年10月份成为一名执业律师,2003年5月份发起创办福建壶兰律师事务所,现为该所主任。吴国章律师还先后兼任莆田市人民政府行政复议员、莆田市人大内司委法... 详细>>

在线咨询

联系我们

律师姓名:福建壶兰律师事务所律师

电话号码:0594-2261218

手机号码:13905046298

邮箱地址:510320027@qq.com

执业证号:13503199910474166

执业律所:福建壶兰律师事务所

联系地址:福建省莆田市城厢区龙桥街道三迪国际公馆33—34层

律所动态

壶兰推荐||张祥:美国生成式人工智能证据审查法律规制的镜鉴

0 (2)

美国生成式人工智能证据审查法律规制的镜鉴

张祥,同济大学法学院博士研究生,上海市人工智能社会治理协同创新中心研究助理,研究方向:数字法学,证据法。

【摘要】  在生成式AI时代,生成式AI大模型逐步渗入证据法领域,形成了生成式AI证据。生成式AI证据是由GenAI大模型所产出的、可能会用于证明案件事实的材料。生成式AI证据是大数据证据的一种类型,本质上是电子数据。由于生成式AI证据与生俱来的“司法审查”和“三性判定”的双重风险,亟须探索风险规制之道。以美国法上的“专家证人”和“多伯特标准”为镜鉴,依据“可靠性—相关性—可采性”协同逻辑链条,建立适配GenAI大模型的“技术原理+数据链条+影响评估”三重验证框架,突破算法黑箱与数据污染困境,区分直接证据与间接证据,简化“相关性”与强化“可采性排除”审查标准,推动证明力评价模式更新,从而构建起中国法语境下的生成式AI证据审查规制体系。

【关键词】生成式AI证据;司法裁判;美国法;证据审查体系

 【本文引用】张祥:《美国生成式人工智能证据审查法律规制的镜鉴》,载《证据科学》2026年第1期,第72-83页。


目录

一、引言

二、风险透视:生成式AI证据的双重风险

三、域外方案:美国的生成式AI证据审查模式与启示

四、本土模式:中国生成式AI证据审查规制体系构

五、结语:生成式AI证据审查的体系化再造

一、引言

人类法庭证据运用的历史,是一部随着科技进步与发展不断演变的“编年史”。从口头陈述到书面证据,从声像证据再到当下的生成式AI证据,每一次的变革都深刻影响着司法体系。生成式AI证据与生成式AI技术一样,不可避免地将进入人类法庭审判过程当中,并在司法实践和证据体系中展现出独特的证据特质,而这些特质本身裹挟着巨大的风险与挑战。2025年1月20日,杭州深度求索公司发布最新人工智能开源产品DeepSeek-R1,其依赖AI蒸馏(AIDistillation)技术上的算法创新,完全摈弃了人工干预的监督微调(SFT),展现出极其卓越的推理能力,使得自美国OpenAI公司发布的ChatGPT以来所暴露的人工智能大模型问题更为突出。此前,我国为抓住人工智能发展的重大机遇,在立法规划上已经将人工智能立法列入了相关议程。例如,国务院于2017年发布《新一代人工智能发展规划》,明确指出到2030年“建成更加完善的人工智能法律法规、伦理规范和政策体系”。2022年12月,最高人民法院发布《关于规范和加强人工智能司法应用的意见》,指出生成式AI辅助结果仅可作为审判工作或审判监督管理的参考。2023年7月,国家互联网信息办公室联合多部门发布《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》),进一步促进生成式AI行业健康发展和生成式AI技术的规范应用。

然而,我国现阶段的立法尚未解决运用生成式人工智能(GenerativeAI,简称生成式AI)所带来的证据认定难题,导致法官在审理案件时往往因缺乏专业知识和上位法参照而陷入困境。所谓生成式AI证据,是指依托生成式AI大模型,通过算法对训练数据进行学习、整合、处理、创造后形成的,可以证明案件事实的各类内容形态的一种证据。从其核心特征来看,生成式AI证据是透过算法的自主行为,基于海量数据训练自主产生的新内容。与深度伪造证据相比,生成式AI证据之内容不一定具有天然欺诈性,其不以篡改数据为目的,二者在证据真实性审查的审查重点上存在本质区别,即生成式AI证据重视算法逻辑的可追溯性,而深度伪造证据重视原始文本的比对。另外,与机器证言、电子证据、大数据证据等相比,生成式AI证据并非对特定事实或内容的记录与转述,而是算法模型自主生成的具有证明意义的内容,其本身具有明显的“生成性”与“创造性”。

此外,法官及律师都将面临严峻问题,即生成式AI的输出内容是否应当在民事及刑事审判中作为证据采纳?如何应用于法庭的审判活动当中?为应对实务中的难题,我国学者亦展开了学理上的有益探索。例如,有学者提出,应将2018年《刑事诉讼法》第50条第2款第8项中的“视听证据、电子证据”统一修改为数字证据,并在司法解释中具体规定各种数字证据的审查判断标准,形成以电子数据证据规则为基础的阶梯式分类审查机制。有学者从生成式AI证据参与司法辅助裁判的实务路径出发,明确人机“交互”的内部运行逻辑和外部边界。有学者指出,我国有必要参照综合化审查机制,在技术规则层面上构建人工智能主体适格验证规则,在法律规则层面上明确控方举证方式,合理强化质证对抗性,以及确立审慎的认证规则。进一步,有学者认为,应当将专家辅助人制度引入司法人工智能审查证据领域,强化对司法人工智能审查结果的说理论证。有学者认为,应依据生成式AI证据生成流程,从数据可靠性、算法可靠性角度明确生成式AI证据可靠性的具体要素,并构建取证、开示、质证与认证规则,强化生成式AI证据适用的程序规制。

但是,上述学者们的观点尚未真正揭示生成式AI证据的证据特质,不足以应对生成式AI技术对司法裁判的冲击。例如,ChatGPT可以忽略其自身在回答引导性问题时固有的偏见,或者编造不存在的引用和参考文献。这些错误的回答常被称为“幻觉”。而随着卷积神经网络(ConvolutionalNeural,简称CNN)和生成式预训练模型(GenerativePre-trainedTransformer,简称GPT)等生成式AI技术的指数级发展,造成裁判时针对生成式AI证据真实性的理解和运用更加困难。正是由于生成式AI证据的技术黑箱等特质,已经超出了既有证据类型的规制范畴,并对传统的证据真实性审查标准造成了强烈冲击,故有必要在立法中单独界定其证据属性、审查规则及采信标准。

基于此,笔者将通过深度学习大模型(如ChatGPT、DeepSeek、Manus等)自动生成的内容形成之证据界定为生成式AI证据,从符合生成式AI技术特征与法律交叉视角清晰界定生成式AI证据的证据特质,参酌美国法上针对生成式AI证据审查判断之经验,构建我国法上生成式AI证据审查判断体系,以应对生成式AI技术快速发展对司法裁判的冲击与挑战。

二、风险透视:生成式AI证据的双重风险

(一)风险一:生成式AI证据的司法审查风险

所谓生成式AI证据,是指在生成式AI技术驱动下在机器平台输出端生成的全新内容,生成式AI大模型具有高级智能的深度学习、自主思考以及与人类互动等能力,从而足以引发一系列证据问题和刑事诉讼中事实认定的诸多难题。8生成式AI证据包括图像和视频类、语音和音频类和文本类等三种类型,有学者依据反映“人类—机器意见”的程度这一标准将生成式AI材料区分为“机器意见型”“人类—机器意见平衡型”以及“人类意见型”等类型,并指出其可以用于证明案件事实、证据审查、辅助案件调查等作用。

生成式AI技术的快速迭代,使得生成式AI证据的认定更为困难。以ChatGPT为例,人工智能生成的文字和图像已经难以与人类制作的文字与图像区分开来。同样地,由人工智能生成的文件、音频和视频等证据材料,也越来越难以与非人工智能生成的材料相区分。而随着诸如DeepSeek、Manus等生成式AI大模型的不断涌现,科技的进步将带给法院以及辩护律师在判断证据的真实性(深度伪造)方面的重大挑战。

第一,从生成式AI技术原理来看,生成式AI大模型的程序设计师主要运用转换器(Transformer)多模态大模型,以及基于人类反馈的强化学习技术(Reinforcementlearningtechniquesbasedonhumanfeedback),从而使得嵌入生成式大模型的机器具备理解人类语言、进行自我学习和生成符合指令要求的知识信息。生成式AI系统的复杂性将证明(或反驳)其真实性的这一问题提升到了新的层次。通过机器学习编码的知识和过程,并非以程序步骤的形式存在,而是体现在生成式AI证据特征的权重,以及系统不同组件的架构中。生成式AI技术的高级架构使得使用方可以利用生成式AI生成或辅助生成一定的且用于证明案件事实的材料,虚拟世界下的“产物”在进入法庭审判时,极易导致生成式AI证据的审查认定与传统的电子证据认定规则存在差异。

第二,从生成式AI证据的司法应用场景来看,生成式AI技术的日新月异,导致传统的证据生态再次发生巨变。一方面,由于生成式AI可以快速生成逼真的图像、视频、文本以及语音等内容,在司法领域内可运用于还原犯罪现场、辅助证人作证、模拟案件情景等,为法庭审判案件提供了新途径、新思路。另一方面,生成式AI具有近似于人类的“表达”能力,却存在异于“人类证言”的算法黑箱风险,以及虚假生成、隐私侵权、算法偏见等风险,在应用于司法实践的过程中,生成式AI证据的高度拟真特性将引发虚假证据泛滥,生成式AI大模型算法的不透明性与数据依赖,将诱发证据真实性、合法性审查等潜在风险。尽管算法偏见问题可以通过参考通用人工智能可信度方法来解决,例如生成式AI系统的验证和确认,但遗憾的是,目前还没有足够的解决方案来应对黑箱问题。

第三,由于生成式AI证据属于科技进化的新产物,难以直接对应传统的法定证据类型。因此,是否需要在既有的法定证据类型外增设新的证据类型,还是将其作为近似于书证的“机器证言”对待,都将构成对生成式AI证据审查的严峻挑战。

(二)风险二:生成式AI证据的三性判定风险

大陆法系常采用证据资格(CompetencyofEvidence)的表述来概括是否能够成为证据的判断,生成式AI证据的证据能力判定主要包括真实性、关联性以及合法性。

从生成式AI证据的真实性来看,其一,由于生成式AI证据生成过程的不透明性与不可追溯性,存在“技术黑箱”和“数据污染”风险;其二,生成式AI证据的篡改与伪造的技术门槛低,使得传统的证据“鉴真”方法面临失效风险,普通技术手段难以识别生成式AI证据的真伪,导致法院因缺乏更新的技术鉴别手段而常常陷入证据“真实性”认定困境。从生成式AI证据的关联性来看,与常规证据不同,论及生成式AI证据的相关性,一般应涉及证据内容与案件事实之间的相关性、材料本身与生成式AI平台之间的关联性。就前者而言,生成式AI生成内容本身即具有高度的概率性特征(如文本续写、图像风格生成等),往往难以与特定的案件事实之间形成必然联系。以Manus为例,其自主生成的内容材料,很难将其与人类行为之间搭建因果关系链条。就后者而言,根据日常经验和逻辑法则无法对生成式AI证据物的关联性进行判断。此外,由于生成式AI本身并不具有主观意图,但其生成内容却可能被用于证明使用者的主观恶意,将导致在“技术中立性”与“使用者过错”之间的抉择成为法官认定关联性的核心难题。从生成式AI证据的合法性来看,生成式AI证据的合法性审查至少存在以下两方面困难。一方面,由于生成式AI证据的形成依赖前期算法工程师的数据训练,若使用了未经授权的版权作品或个人信息,则很有可能违反《著作权法》和《个人信息保护法》,基于“毒树之果”理论,生成式AI证据的底层数据的非法性将导致整个生成式AI证据被排除。另一方面,由于生成式AI产生于特定平台,平台本身须接受《暂行办法》的合规备案审查,法官还需要审查平台与用户之间是否存在生成式AI权属协议。

基于上述,鉴于欧美等发达国家在生成式AI技术的研发与司法应用方面起步较早,且在法律规则、技术监管以及伦理审查方面积累了一定的经验,本文拟通过比较法视角,研究生成式AI证据审查认定的域外方案,从生成式AI技术的基本原理出发,反思我国现行证据规则在应对生成式AI证据审查认中的不足,并通过梳理和总结归纳域外立法模式、司法实践及特点的基础上,探索构建规制生成式AI证据规制的中国法路径。

三、域外方案:美国的生成式AI证据审查模式与启示

在全球数字化浪潮中,如何进行生成式AI证据的审查认定成为司法领域中的一个难题。以美国立法与司法经验为例,剖析其在生成式AI证据审查规制体系中的立法模式、监管机制以及责任认定等要素,以期为我国构建契合自身司法实践的生成式AI证据审查体系提供一定参考。

(一)美国生成式AI证据审查模式:专家证人

在美国,根据现行《联邦证据规则》,确定生成式AI证据可采性时必须解决的关键问题,一般包括相关性、真实性,以及陪审团所发挥的作用等。而为应对生成式AI证据具有的深度伪造风险,已经有学者主张修订《联邦证据规则》,以消除陪审团在确定数字和视听证据真实性方面的作用。虽然证据认定规则需要不应技术进步而僵化执行,但此举仍旧存在质疑之声,即是否需要根据每次技术进步而进行相应的证据规则修订?

1.专家证人对生成式AI证据进行解释

从美国现行证据规则看,《联邦证据规则》为审查生成式AI证据设置了统一的运用规则,即便在生成式AI技术高速发展的当今社会,依旧可以得以有效适用。比如,《联邦证据规则》403确立了一个评价框架,用于规定相关证据的证明价值被偏见、混淆或费时的风险所超越,那么,则应当予以排除。

为解决法官在面对生成式AI证据时的认知局限与推论困难问题,美国法上已经引入专家证人对此问题进行解决。例如,《联邦证据规则》702规定:“因知识、技能、经验、培训或教育而拥有专家资格的证人,可以意见或其他形式作证。但须符合下述条件:(a)该专家的科学、技术或其他专门知识将辅助事实裁判者理解证据或裁断争议事实”。换言之,生成式AI证据需要经过专家证人予以解释,而专家对于审判中使用生成式AI证据的审查认定至关重要,其除了处理和评估GenAI输入的数据和事实认定等相关信息外,专家还必须捕捉并澄清这些数据,故专家在某种程度上扮演了专家证人的角色。其中,由于生成式AI技术的飞跃式发展,导致法官在面对生成式AI技术时无法发挥出审判专长,有关生成式AI证据审查认定的知识并非由任何个人所单独可以掌握,有学者将该特征称之为“分布式认知”(distributedcognition)模式。在该模式中,涉及生成式AI证据的知识通过在线网络蔓延开来,认知任务分配给人类专家和技术设备,技术为人类专家提供的某些帮助是无法脱离技术而完成的。故此,法官在面对生成式AI证据时,常常需要借助了解生成式AI技术专家证人的力量,以便对生成式AI证据的审查认定作出准确评价。

同时,法官可以在初步掌握案件事实有关技术知识的基础上,作出初步的审查判断,并基于传闻证据排除规则等准确评估专家证人陈述可信度。但是,检察官并不掌握生成式AI技术的复杂算法、源代码和机器训练数据等,平台亦从维护自身商业秘密角度,并不愿意公开算法运行逻辑及出示相关材料。饶有趣味的是,技术公司一方面推进生成式AI技术,另一方面针对生成式AI技术的检测算法,这意味着为生成对抗网络须提供更好的训练材料。

2.生成式AI时代“多伯特标准”之新适用

对专家证人参与诉讼的范畴进行明确。专家证人的主要任务在于对涉及生成式AI证据的相关知识进行解释,以便能够使法官理解并据以作出准确的事实认定,而对要件事实能否获得证立、被告的具体责任大小等案件争点则不在其任务范围内。从分工来看,专家证人在法庭上的意见应属于知识层面的意见。此外,美国联邦最高法院将专家证言的可采性标准等同于“科学知识标准”,并据此确立“多伯特标准”(DaubertStandard)。具体而言,其主要包含以下要素:科学技术是否成功经受住了检验;是否经过同行审查和公开评价;是否有已知的错误率和控制标准;是否为科学界所普遍接受。

从审判中“多伯特标准”的运用看,法官可以结合《联邦证据规则》702和“多伯特标准”来评估受质疑证据的有效性和可靠性,并认真审视引入生成式AI证据可能带来的不公平偏见。此外,法官还必须考虑证据的虚假性及风险等不良后果。换言之,当不公平或错误后果的风险高而真实性证据低时,该证据应当被排除。此外,法官应仔细审查双方当事人所提交的证据和辩论内容,并据此作出裁决。在此过程中,法院必须评估证据提供者是否充分履行了证明生成式AI证据真实性的责任,而裁决应涉及相关性、真实性以及偏见等论点,在此基础上权衡所提供证据的证据能力。值得注意的是,如果双方的专家均未能向法官提供足够的信息,以评估生成式AI证据的有效性、可靠性或偏见因素,根据《联邦证据规则》706,法官则可以指定一名专家或技术顾问,来向法官解释生成式AI技术等信息。

总体而言,这一标准在历经多年的发展后,在生成式AI证据的审查认定上依旧适用,即法官基于专家证言的标准化解释流程以确信专家意见的可靠性。值得关注的是,由于在美国依赖专家证言的案件越来越多,陪审团审判有演变为专家审判之趋势。

(二)对美国生成式AI证据审查经验的反思与总结

2025年5月2日,美国联邦司法小组提出规范生成式AI证据的提案,该草案旨在确保生成式AI技术产生的证据符合与人类专家证人证据相同的可靠性标准。从美国这一最新立法动态可以看出,美国在面对生成式AI证据时,继续深化专家证人提供生成式AI证据的解释。而法官通常根据《联邦证据规则》104(a)作出证据真伪认定,如果合理的陪审团认为证据很可能是真实的,则认定该证据为真。事实上,法官有权力和责任在法庭审判中充当“守门人”,在证据提交陪审团审理之前对其可采性作出初步决定,并评估证人的可信度,而这在评估证据方面仍然至关重要。然而,在某些情况下,陪审团必须确定证据是否真实。具体而言,当一方对证据的真实性提出异议,且有足够证据使合理的陪审团做出有利于任何一方的裁决时,就存在事实问题。在这种情况下,《联邦证据规则》104(b)要求法院将证据真实性的认定交由陪审团决定。此外,在美国,依据证据分离特性,证据审查被区分为可采性审查和证据分量两阶段。作为证据的守门人,法官通过预审排除掉不具有可采性的证据,证据分量阶段则决定于事实认定者。

从目前美国的司法实践来看,专家证人模式至少存在以下问题。一是诉讼参与人常难以通过交叉询问规则直接来质疑生成式AI证据的准确性。二是“多伯特标准”虽然为法官科学审查生成式AI证据提供了方案,但是并未过多回应生成式AI算法本身的问题。正如一位学者所言,由于依据多伯特标准尚且无法彻底完成证据可靠性审查,原因在于该验证方法无法解决算法反馈机制、实验环境失真等难题,致使算法黑箱问题突出。故此,访问生成式AI算法的源代码似乎是唯一有意义的方法,其原因在于软件本身才是这些假设实际由机器实现的方式,仅凭透明度并不能保证对生成式AI软件进行有意义的审查。

四、本土模式:中国生成式AI证据审查规制体系构

基于美国立法与司法实践中针对生成式AI证据的审查认定经验,结合我国现有司法实践,从生成式AI技术原理与法律原则保障出发,按照“可靠性—相关性—可采性”之协同逻辑链条,尝试构建符合中国司法语境的生成式AI证据审查规制体系。

(一)生成式AI证据可靠性审查

1.多伯特标准的技术适配

《联邦证据规则》702所确立的“多伯特标准”要求专家证言需要基于“科学的、技术的或其他专业知识”,并通过可检验性、同行评审等要素以验证其可靠性。然而,生成式AI却面临着算法黑箱化和数据污染等风险。故此,在中国司法语境下,亟须建立适应生成式AI大模型的“技术原理+数据链条+影响评估”的三重验证框架。

第一,从技术原理角度来说,有学者提出可以参照金融犯罪领域的经验,引入技术调查官作为检查辅助人员,并由其说明生成式AI大模型的技术原理。并可以要求检察人员当庭演示生成式AI证据的生成过程,同时一并解释其技术原理和具体参数等。法官则需要对源代码的训练数据展开审查,依据“多伯特标准”对生成式AI大模型源代码的普遍接受度、可重复性测试、同行评议等要素进行审查。

第二,从数据链条角度来说,一方面,由于在美国司法实践中,被告人常常难以通过交叉询问规则质疑生成式AI证据的准确性,另一方面,法庭因双方当事人提出的大量生成式AI证据而陷入效率低下状态。有鉴于此,可以尝试通过延长数据审查链条的形式来实现生成式AI证据的可靠性审查。展开来说,可以尝试将现有的生成式AI证据可靠性审查与法庭证据调查环节分离,通过设置庭外生成式AI证据的可靠性前置审查程序,并由控辩双方的专家对生成式AI大模型的设计、源代码等信息进行深入审查,并交由评估专家向法庭予以解释。

第三,从生成逻辑角度来说,从美国的司法实践来看,已经形成了以“技术架构、影响维度和问责制”为核心的智能评估工具,形成了全周期覆盖、闭环联动的评估框架。考虑到我国法院正在涌现的大量生成式AI证据的复杂性,亟须在我国立法中推动构架“生成式AI证据影响评估制度”,该项制度的主要目的在于通过梳理恒定的衡量标准对生成式AI大模型的数据训练等进行科学评估,以确定不同样态的生成式AI大模型的风险等级和影响水平。

从我国法院就生成式AI证据审查庭审过程来看,可进一步明确此三重验证框架实施步骤(参见图1)。首先,在举证阶段,刑事诉讼中应当由控方承担生成式AI证据具有可靠性的举证责任,民事诉讼中由主张使用该证据的一方承担。举证方需要提交关于“技术原理说明+数据链条溯源+影响评估”的完整报告,譬如,生成生成式AI证据的算法逻辑的说明则应当包括在技术原理中,生成过程中是否存在数据污染、算法歧视等风险的说明应当包括在影响评估报告中。举证方可以通过书面材料或现场庭审展示等形式呈现,并在必要时向法庭提交存储生成式AI证据生成过程的算法模型原始介质。其次,在质证阶段,反驳方可就三重验证报告的三性提出合理质疑,并可以依据《民事诉讼法》第79条申请专家辅助人出庭,由专家辅助人具体说明,或者法官依职权从专家库中选择专家参与质证环节。再次,在认证环节,由法官结合双方质证意见,对上述材料进行实质审查。若生成式AI证据所涉及技术复杂、双方争议较大时,法官可以委托有资质的第三方技术评估机构再次评估,费用由举证方预缴,依据案件结果确立最终承担主体。最后,在评价阶段,法官综合前述环节的证据材料、专家辅助人意见等,判断生成式AI证据的证据能力及证明力。若符合三种验证标准的,则予以采信;若部分符合三重验证标准的,则限定其证明范围;若存在技术原理缺陷、数据污染等问题,则应当依法予以排除。

微信图片_2026-02-03_170328_911(1)

2.专家辅助人制度的技术赋能

借鉴“多伯特标准”中“专家证言需经同行评审”之理念,我国应当优化《民事诉讼法》第79条所规定的专家辅助人制度,并对《最高人民法院关于适用〈中华人民共和国民事诉讼法〉的解释》第123条进行修订,增设“当事人提交生成式AI生成的电子数据作为证据的,应当一并提交该数据生成所使用的算法类型、训练数据来源、指令输入记录及技术验证报告。人民法院可以根据案件需要,委托人工智能伦理委员会或第三方专业机构对生成式AI技术可靠性进行评估。”从具体的司法实践来说,可以尝试以下路径。其一,建立跨学科专家库。由生成式AI算法伦理监管机构负责生成式AI算法的应用伦理、规则、标准等的制定与审查,并负责处理存在算法风险的应用。该监管机构可以监督国内各平台经营者,并定期审查各平台的算法数据,强化组织领导和统筹协调,以形成生成式AI算法治理合力。同时,积极吸纳计算机科学、数据法学、伦理学等不同学科领域专家,组成跨学科专家库,共同对产生生成式AI证据的大模型的技术可靠性进行联合质证;从《民事诉讼法》第79条修订来说,应当在未来修法时增加针对生成式AI证据的可操作性内容,赋予当事人就查明事实的专门性问题申请专家辅助人出庭后,就案件涉及的生成式AI证据的技术原理、数据链条等问题进行说明,并补充第3款,即“人民法院认为有必要的,可以依职权通知具有相应专业知识的人员出庭,就案件的专门性问题进行说明。前款规定的具有相应专业知识的人员,适用鉴定人出庭的有关规定”。其二,强制生成式AI开发公司以技术说明义务。应当探索逐步突破“算法避风港”法则,提高生成式AI算法平台的注意义务,并以利益衡平为原则合理配置举证责任,重视政府与算法消费者同算法平台的对话,适时引入第三方监督力量。尤其在算法黑箱等问题上,应当推动行业履行生成式AI算法透明公开义务,促成其应用平台的可解释性实现,并确保应用过程中人类监督的实质性展开。同时,在生成式AI大模型训练的前期、中期、后期,重点关注训练语料库搭建、防控数据安全风险以及降低内容纠纷产生的风险。另外,可以探索由案件当事人在提起诉讼时同时附带由技术专家出具的《生成技术合规性报告》,内容可以包括:(1)生成式AI大模型训练数据来源及预处理方法;(2)内容生成过程的合伦理性;(3)第三方机构出具的技术评估意见。

(二)生成式AI证据相关性审查

一般来说,判断算法证据有无证据能力以及证明力大小,需要法官在充分听取控辩双方质证意见,并在结合自身主观认知经验的基础上做出判断。“多伯特标准”要求专家证言需“有助于事实认定者理解证据或确定案件争议事实”。从法庭对生成式AI证据的审查角度来说,需要重点关注生成式AI证据的证明力层级。我国有学者主张构建区分物理层、逻辑层、数据层、内容层四维度的数字证据阶梯式审查的更新机制。笔者认为,尽管新型数字技术的特征会在不同程度上影响证据的三性,但当下更为适应我国司法现状的“相关性审查”应当仅规定“直接证据+间接证据”这一简便的审查标准,例如利用生成式AI实时监控数据生成的事故现场还原视频即属于直接证据,而通过技术分析海量聊天记录所生成的关联性报告则属于间接证据。此外,我国未来对生成式AI证据适用规则的规定,应当涵盖生成式AI证据的采信标准和采纳标准、证据调查和证明力标准等内容。更为重要的是,在生成式AI技术的更新迭代中,利用技术原理避免技术评价的主观性,从而实现基于生成式AI证据的证明力评价模式更新。

(三)生成式AI证据可采性排除

1.多伯特标准“公共政策例外”的本土化

在美国的司法实践中,多伯特标准尽管为专家证言可靠性的审查提供了技术维度上的判断框架,但是往往在面对复杂的社会价值衡量时陷入困境。因此,“公共政策例外”成为多伯特标准的重要补充。也就是说,专家证人所揭示的技术内涵或知识,纵使符合证据可靠性之标准,但若是与公共政策严重相悖,法庭依旧有权予以排除。这一例外规则在构建我国生成式AI证据审查体系时具有重要的借鉴意义。一方面,生成式AI证据的形成可能涉及国家安全、社会稳定、个人数据隐私等内容。以个人隐私内容为例,生成式AI算法可以高效解析个人数据并生成相关决策,具有将个体的过去、现在和将来连接在一起的技术能力。因此,需要在生成式AI证据适用中明确权利保障的底线原则,必要时法官可以基于公共政策考量予以排除。具体而言,最高人民法院、最高人民检察院可根据电子证据司法解释的经验,通过司法解释或指导性案例的形式,明确“公共政策例外”的适用情形和判断标准,并赋予法官在适用生成式AI证据解明案件争点中基于公共政策排除生成式AI证据的权力。

以美国2024年UnitedStatesv.Choi案为例证据生成过程存在算法偏见,依据《联邦证据规则》403(相关性权衡排除)与“公共政策例外”需要将该证据排除,法院在审查时要求控方举证证明生成式AI证据生成过程不存在算法歧视等风险,最终因控方无法举证而适用裁量性排除。从该案可以窥见美国司法对生成式AI证据的态度与审理逻辑,即兼顾认可新技术的证据价值与强化证据可靠性、公平性审查。在此基础上,对照我国《刑事诉讼法》第56条及相关司法解释所确立的非法证据排除规则体系,可以发现该体系存在以下问题:其一,欠缺与美国“公共政策例外”所承载之证据价值评估类似功能的法律规范。我国非法证据排除规则体系在程序上侧重“取证程序违法”,并未囊括诸如生成式AI证据本身特有的“算法偏见”“数据污染”等实质性违法情形,无法适用新技术勃兴下的证据形态演变趋势;其二,我国现行《刑事诉讼法》及司法解释尚无明确的生成式AI证据举证责任分配规则,造成对于生成式AI证据等算法大模型形成的证据欠缺一套标准化的证据审查规则,无法像前述案件一样适用举证责任分配予以排除,换言之,由于我国《刑事诉讼法》欠缺类似《美国联邦规则》403规则,进而导致法官在审理生成式AI证据相关性与证明力时缺乏明确的法律依据。

从我国立法修订角度看,亟需回应因科技带来的证据形态问题,及时修改现有非法证据排除规则体系,笔者修订如下所示。一是增列《刑事诉讼法》第56条情形,涵盖生成式AI证据特有的“算法偏见”“数据污染”等情形,扩充原条文中“可能影响司法公正的”表述,可以修改为“人民法院有权对以非法方法收集的证据,或者存在算法偏见、数据污染等严重影响司法公正的生成式人工智能证据依法予以排除”。二是修订《刑事诉讼法司法解释》(以下简称,《司法解释》),弥补生成式AI证据审查体系缺陷。在《司法解释》第四章第七节“视听证据、电子数据的审查与认定”中新增一条生成式AI证据可靠性举证责任条款,赋予原告方就生成式AI证据的训练数据合理性、算法逻辑可解释性以及算法无偏见等承担举证责任。

2.裁量性排除规则的强化

所谓裁量性排除规则,是指法官根据个案情况的不同,对仅具有证据形式合法性,但欠缺证据价值及可能产生的负面影响的情形,法官享有是否排除生成式AI证据的权力。就该权力而言,在互联网刑事远程审判中已有运用,在针对法律上以概括性语言勾勒出不宜适用的潜在情景时,赋予了法官“裁量性排除”的空间。从本质特征上来看,生成式AI证据因其本身所具有的“黑箱危险”以及可能存在的证据偏见风险等,使得证据的真实性、可靠性判断尤为困难。据此,在生成式AI证据的审查适用中强化裁量性排除规则具有了必要性和紧迫性。

为强化裁量性排除规则,要做到以下三点。其一,明确法官裁量的考量因素。由于在评价生成式AI证据时需要考虑众多变量,而普通裁判者难以把握这些变量之间的内在关系。因此,法官需要关注生成式AI证据的多重变量,尽量将生成式AI证据的数据关系转换为法律推理上的可理解的因果关系,搭建起证据推论的相关性“桥梁”,尝试将专家辅助人证言的可采性等同于“科学知识”标准,通过程式化流程完成对生成式AI证据的可靠性认定,以及对生成式AI证据的司法场景约束。其二,完善裁量性规则的程序保障。由于在裁判文书中进行说理是现代社会中理性和公正裁判所具备的重要特征,也是对法官自由裁量的有效制约。在法官审查生成式AI证据并行使裁量权时,需要在裁判文书中充分说理,并尽可能详细阐述生成式AI证据排除的依据及推论过程,以确保裁量权行使的公开透明、合理正当。其三,前瞻式优化裁量性规则。目前,我国《刑事诉讼法》第56条第1款后半句规定:“收集物证、书证不符合法定程序,可能严重影响司法公正的,应当予以补正或者作出合理解释……”从该条规范而言,需要在应对新型生成式AI证据时扩大适用范围,将生成式AI证据纳入本条规制范围,以便从根本上赋予裁判者对生成式AI证据的认定权力,为将来出台对应的司法解释留足解释性空间。就证据“裁量性排除”的条款设计而言,需要兼顾妥当性和周延性。传统的诉讼证据模式运用于一定的物理空间,而生成式AI证据产生于复杂多变的生成式AI技术,需要法官从法律理性和司法理性出发,并克服生成式AI证据的确定性风险。此外,法官需要在充分关注双方当事人程序利益诉求的基础上综合考量多重价值,其中尤其需要关注生成式AI证据的证据能力要素、隐形证明力等。对此,笔者主张可以新增生成式AI证据裁量性排除条款,在《司法解释》中补充一条,即“人民法院在审查生成式人工智能证据时,应当综合判断该证据的证明价值与可能带来的误导风险。经审查认为,证据的证明价值明显小于其可能导致事实误认、程序不公等误导风险的,人民法院可以裁定不予采信。”

五、结语:生成式AI证据审查的体系化再造

美国“多伯特标准”的演进表明,证据规则在应对新型科技时的适应性转变,而中国生成式AI证据审查体系的构建,既不能因生成式AI技术风险止步不前,也不能以创新之名突破司法公正之底线。以美国经验为镜鉴,结合我国司法实践,以“可靠性—相关性”协同逻辑构建生成式AI证据审查体系,实现生成式AI证据的多维度保护。

此外,从本质上来说,生成式AI证据也是大数据证据的另一种高级形态,本质上仍是电子证据。在法律价值、司法理性与技术治理的交叉融合背景下,明确生成式AI证据规则适用的权利保障底线原则、场景约束原则以及风险治理原则。通过借鉴美国的“多伯特标准”,一方面,赋能我国的专家辅助人制度,突破生成式AI算法黑箱困境;另一方面,通过简化生成式AI证据“相关性审查”流程,贴近我国的司法实际,并在此基础上推进我国的证明力评价模式更新。由此,即便我国以DeepSeek、Manus为代表的国产人工智能大模型层出不穷,我国针对生成式AI证据的审查规制体系同步保持动态优化,进而实现我国生成式AI证据审查的体系化再造。

来源:证据科学编辑部

联系我们:

壶兰·总所

地址:福建省莆田市城厢区东园路三迪国际公馆33层(市政府对面),电话:0594-2261218,邮编:351100。

壶兰·广州所

地址:广东省广州市越秀区沿江中路298号江湾新城C座,电话:020-83528340,邮编:510000。

壶兰·仙游所

地址:福建省莆田市仙游县鲤城街道紫檀南街锦福家园2号楼315,电话:0594-8260396,邮编:351200。

壶兰·秀屿所

地址:莆田市秀屿区笏石镇毓秀路1166号泰安汇景园9#楼,电话:0594-5878885,邮编:351146


免责声明:本网部分文章和信息来源于国际互联网,本网转载出于传递更多信息和学习之目的。如转载稿涉及版权等问题,请立即联系网站所有人,我们会予以更改或删除相关文章,保证您的权利。

Copyright © 2017 www.ptdls.com All Rights Reserved.

联系方式:0594-2261218;139-0504-6298

联系地址:福建省莆田市城厢区龙桥街道三迪国际公馆33—34层

技术支持:网律营管