
{{aisd}}
AI生成 免责声明
美国西北大学一份调查报告显示,超过60%的法官在司法工作中至少使用过一种AI工具。与此同时,由AI“产生幻觉”而捏造的虚假案件,开始在司法实践中引发严重后果。随着AI越来越多地入局司法体系,亟须为法官提供更多专项AI培训,并制定法院如何使用AI的规范性政策。
美国法官使用AI偏好
2025年3月底,美国西北大学发布了一篇题为《联邦法院中的AI:法官随机抽样调查》的报告,对全美联邦法官在法庭内外的AI使用情况及应用前景进行了调研。
本次研究共分层随机抽取502名法官,包括92名破产法官、177名治安法官、182名联邦地区法院法官和51名上诉法院法官,共回收112份有效问卷。不同类型法官的参与度存在显著差异,其中破产法官的回复率最高(33.7%),上诉法院法官的回复率最低(11.8%)。
该调查询问了受访者对以下大型语言模型(LLM)的使用情况:ChatGPT (OpenAI)、Claude (Anthropic)、Copilot (Microsoft)、Gemini (Google)、Grok (X.ai)和 Perplexity。调查同时涉及以下专用“法律AI”工具:CoCounsel(汤森路透)、Westlaw AI-Assisted或Deep Research(汤森路透)、Protégé或Lexis+ AI(律商联讯)、Vincent AI (vLex)、Harvey和Legora。
在112名回复法官中,超过60%的人表示在司法工作中使用过至少一种上述AI工具,约38%的人表示从未在工作中使用过上述任何工具。近四分之一(22.4%)的法官表示,每周或每天都会使用AI工具。法官使用频率最高的工具是“Westlaw AI-Assisted或Deep Research”(38.4%)以及“ChatGPT”(28.6%)。
相较于通用型AI平台,法官更倾向于使用专用的“法律AI”工具。研究发现,法官使用AI的主要用途为法律检索(30%)和审查案件卷宗及文件(15.5%)。且法官反馈办公室其他工作人员使用AI的主要目的同样是法律检索(39.8%)与审查文件(16.7%)。这一偏好表明,对软件供应商的熟悉程度及对AI工具的可靠性认知,在很大程度上决定了法官办公时愿意引入哪些AI工具。
数据还揭示了更为细化的应用场景:法官将AI用于起草和编辑“非诉讼类文件(即未向法庭提交的内部文书)”的频率,高于“诉讼卷宗文件”。仅有1.8%的法官表示会使用AI“直接做出裁决”,另有4.5%的法官将其用于“为裁决提供参考信息”。除“为诉讼程序准备庭审问题”和“做出裁决”这两项由法官本人使用AI较多外,在其他所有应用场景中,其办公室工作人员的AI使用频率均略高于法官。不过研究团队也提醒,这种由法官代为评估他人情况的调查方式,可能会导致对实际情况的低估或高估。
研究发现38%的法官在工作之外每天或每周使用AI。大多数法官仍表示工作之外很少(26.9%)或从未(25.9%)使用过AI工具。研究团队经严格统计学检验证实,法官在个人生活和司法工作中的AI使用频率之间存在显著的关联性。
研究人员进一步发现,大多数法官并未接受过系统的AI培训:45.5%的法官表示法院行政管理部门未提供过此类培训,另有15.7%的法官表示不确定。在法院内部管理方面,约三分之一的法官允许(25.9%)或明确鼓励(7.4%)办公室人员使用AI,约20%的法官在其办公室内正式禁止使用AI,17.6%的法官虽不鼓励使用但也未明文禁止,还有24.1%的法官对AI工具的使用尚无任何官方政策约束。这种广泛的分布态势表明,司法体系仍处于AI治理的早期摸索阶段,尚未在各法院及法官办公室形成统一的主导规范。许多法官也并未采取“一刀切”的刻板规则,而是审慎地对AI的具体应用场景进行了逐一评估。
研究还强调了一项关键发现:在确认法院行政管理部门提供过AI培训的受访法官中,绝大多数(73.8%)都积极参与了培训。这反映出法官群体对高质量且契合司法工作特性的AI教育培训存在着强烈需求。
在调查反馈中,对AI在司法领域的应用潜力持乐观与担忧态度的法官比例几乎相当。具体而言,治安法官乐观多于担忧,而破产法官和联邦地区法院法官担忧多于乐观。许多受访法官在认可AI大幅提升工作效率的同时,也对AI可能产生的“幻觉”现象、虚构的“僵尸案件”(即AI拼凑伪造的虚假判例)以及过度依赖AI技术导致的法律分析技能退化表达了深切的不安。
法官们普遍提出了一个具体的实务隐患:无律师代理的自辩当事人常使用AI生成看似专业、实则法理漏洞百出或毫无根据的冗长诉状。这不仅无助于推进诉讼,反而使法官及其助理的工作量呈几何级数的增加。
美国业界不当使用AI的风险与代价
近年来,越来越多的美国律师在诉状中引用由AI“产生幻觉”而捏造的虚假案件,并面临法院的严厉制裁。这些真实判例表明,法院对律师过度依赖AI技术且未尽核实义务的行为决不姑息。
在2023年的“ChatGPT法律幻觉第一案”(Mata 诉Avianca, Inc.)中,原告律师为反驳撤案动议而使用ChatGPT进行法律检索,向纽约南区联邦法院提交了至少6起连案名和卷宗号都纯属伪造的航空业诉状。主审法官认定涉事律师存在主观恶意,对其处以5000美元罚款。
随后,此类因未尽审查义务而受罚的事件在美国多地重演。2024年3月,在马萨诸塞州律师受罚案中,一名律师因提交由助理未经核实使用AI生成的虚假案例,被马萨诸塞州法院处以2000美元罚款。判决指出,律师事后的坦诚认错并不能免除其对法律文书未尽勤勉审查义务的责任。同年11月,在得克萨斯州不当解雇诉讼案中,得克萨斯州联邦法院发现原告律师在文书中引用了不存在的判例和虚假引语。法院不仅下令罚款2000美元,还强制要求律师必须参加关于生成式AI法律应用的继续教育课程。
即便是大型律师事务所也同样面临严峻考验。2025年2月,在全美大型伤亡理赔律所Morgan & Morgan代理的沃尔玛悬浮板起火案中,该所两名律师向怀俄明州联邦法院提交的法庭文件里,使用内部AI平台生成了8个不存在的判例。法官对直接起草文书的律师罚款3000美元,并取消了其该案的执业资格,对两名未尽审阅义务的挂名核签律师各罚1000美元。事件曝光后,该所向内部上千名律师发送紧急备忘录,警告“使用AI编造案件即遭解雇”。
这些案件的审判逻辑一脉相承:生成式AI等新技术的应用绝不能成为法律从业者推卸勤勉尽责审查义务的借口。任何未经严格人工核实而将AI“幻觉”引入司法程序的行为,必将面临经济处罚并引发严重的职业信誉危机。
目前美国法院体系普遍缺乏针对AI的正式培训,多数法官办公室尚未建立明确的AI使用规范。这种政策缺位与生成式AI“幻觉”风险叠加,已在司法实践中引发了严重后果。
2025年10月,两名联邦地区法院法官透露并被迫撤回了已记入案件卷宗的司法意见书。导致这一重大失误的原因,正是其法官助理和法学院实习生在未经授权的情况下,擅自使用ChatGPT和Perplexity等AI工具协助起草文书。由于缺乏严格的多层审查机制,这些由AI生成的意见书草案中充斥着虚构的指控、捏造的案件结果以及虚假的引语。
这些包含严重错误的裁决引来了美国国会的密切审查。美国参议院司法委员会主席查克·格拉斯利表示,这些有缺陷的裁决理应为整个联邦司法系统敲响警钟。此次风波不仅凸显了司法系统在引入前沿技术时的脆弱性,也深刻表明法院亟须制定明晰的指导方针、加强内部合规培训,并落实严格的人工审核流程,从而确保AI在法律领域的安全与负责任应用。
美国州级和联邦法官已开始联合行动,正面迎接AI技术的挑战。近期,由三名法官共同发起的“司法AI联盟”正式成立,目前已有约90名法官积极响应。该联盟的目标并非制定一刀切的政策,而是旨在联合全国各地的法官,通过相互沟通、共享资源,探讨如何将AI妥善应用于审判工作中。全美几个州也已着手采取行动,为法院工作人员制定明确的AI使用政策,试图在提升工作效率与防范过度依赖之间寻找平衡。
系统规制AI使用
相比于美国同行,中国法律行业呈现出自下而上的AI应用趋势。绝大多数律师将生成式AI纳入日常工具,个人使用率已达96%。但在管理层面,由于系统治理、伦理框架和内部政策缺位,存在个体使用积极而机构管理滞后的矛盾。律所层面的系统化部署比例为28%,仍有23.4%的律所处于未部署状态。在工具选择方面,本土化趋势明显,DeepSeek以约80%的占比成为首选平台,其后依次为ChatGPT(48%)、豆包(47%)及Kimi AI。应用场景上,AI正从基础检索转向深度生成,法律研究占比最高(74%),其次是合同审查(55%)和文件起草(51%)。此外,86%的律师认为使用AI提升了跨境服务质量,成为深度参与国际业务的工具。
法院系统内部应用呈现明显的结构性差异。全国约15%的法官能熟练使用AI系统,中西部欠发达地区该比例不足5%。此外还存在年龄断层,55岁以上法官的使用意愿和频率不足年轻法官的三分之一。
中国多地法院也出现了“AI幻觉”引发的虚假案例及法条。在2025年4月10日北京市通州区人民法院作出判决的一起商事纠纷中,律师利用AI工具编造了案情契合但案号虚假的案例。北京市第二中级人民法院在2025年9月审理的一起继承纠纷案中,发现当事人提交的AI生成裁判依据并非现行法律规定。上海市第二中级人民法院在审理劳动合同纠纷案时,亦发现上诉状引用的法律条文并不存在。
更严峻的问题在于AI被用于恶意取证和虚构事实。湖北省大悟县人民法院在2025年年底前作出训诫处理的一起房屋租赁纠纷案中,原告董某提交了带有“豆包AI生成”水印的虚假水电表照片。在上海市青浦区人民法院(于2025年11月4日前)识破制止的一起“全某冒菜”商标纠纷中,原告利用AI自主学习能力,通过50余次异常搜索操作制造侵权假象,并据此取得400余份证据向全国法院提起诉讼。此类行为造成了资源浪费与公信力损伤,也引发了律师群体对其职业独立性受到冲击的担忧。
针对AI的不规范使用,中国正通过司法解释、案例库规则及执业道德进行系统规制。在法律责任判定上,诉讼参与人必须遵循诚信原则,提交未经甄别核实的虚假案例应当承担法律后果。处理结果依情节轻重而定,对于情节轻微且无明显恶意的行为,法院予以批评教育并在判决书中载明;对于利用AI伪造照片、重要事实等严重妨害民事诉讼的行为,则采取训诫、罚款等措施,构成犯罪的依法追究刑事责任。
在行为规范层面,司法机关要求提交疑似AI生成内容的当事人进行释明与风险告知,并标注辅助生成情况。北京通州法院等机构通过总结案号规律化、案情描述过度贴合场景等特征建立审查经验。在审判权归属上,最高法明确“AI辅助而不替代”原则,裁决权、法律解释权、价值判断及涉及复杂逻辑的职能必须由法官行使。同时,治理规则要求司法AI提供商公开算法权重与数据来源,增加算法透明度。
笔者认为,实现AI与法治的良性互动需从工具应用转向制度重塑。在人机协同模式下,AI是“增强”而非“替代”的学习工具,应由法律人主导案件的复杂推理,将AI定位为“副驾驶”。律所应通过制定严格的AI使用规范,确保AI技术应用在统一的职业伦理框架下合法运行。
(作者系华中科技大学知识产权与竞争法中心教授)