数旗智酷编译 作者︱朱尔·帕蒂森-戈登
生成式人工智能的兴起有可能改变司法系统,但专家表示,法官可能还需要确定这些工具是否可以安全部署,以及如何允许律师使用它们。
事实上,司法系统和法院技术领域的专家认为,生成式人工智能可以做一些有用的事情,例如将法律术语翻译成易于理解的语言。但也存在风险,比如人工智能捏造虚假信息。法官还必须决定生成式人工智能是否应该在为自己的决定提供建议方面发挥作用。
随着未来即将到来——或者也许已经到来,这取决于个人观点——现在值得花点时间来研究生成式人工智能将在司法系统中,特别是在法院中可能扮演的角色。
法庭中的生成式人工智能
德克萨斯州司法部门的《生成式人工智能:法院概述》认为,律师、自我代理诉讼当事人或司法官员理论上应如何使用该技术。其中内容包括使用人工智能在没有律师的情况下指导用户完成法律程序;帮助律师审查法官之前的裁决,并就如何制定文件提出建议;以及向司法官员提供有关保释或量刑的建议。
但该份文件提醒说,“这仅仅因为我们可以做,但并不意味着我们应该这样做”,并罗列了各种可能风险。生成式人工智能训练的数据可能存在偏见,或者可能产生不准确的答案,如果不仔细审查,这些答案可能会被忽略等等。
在一些报道的案例中,其他国家的法官在法院判决期间咨询了 ChatGPT,以确认相关规则或获取观点。在《卫报》报道的一个案例中,哥伦比亚的一名法官正在决定一个患有自闭症男孩的保险是否应该全额支付他的医疗费用。法官向 ChatGPT进行了咨询:“患有自闭症的未成年人是否可以免除治疗费用?”
路易斯安那州地方法院法官斯科特·施莱格尔是路易斯安那州最高法院技术委员会主席。在他看来,法官不应该使用生成式人工智能工具作为决策的一部分,即使这些工具基本上是准确的。他说,这是因为人与人之间的关系是司法系统不可或缺的一部分。
“司法系统的一个重要部分是被倾听并能够说‘伙计,我讨厌施莱格尔法官,他完全错了’”,施莱格尔说,“我们是人类。因此,特别是在大型案件中,我们希望被听到,我们希望由人而非机器做出决定。
将ChatGPT用于自助法律服务
决策支持并不是部署此类工具的唯一方式。施莱格尔一直在试验【1】生成式人工智能如何为法院网站创建内容。
这可能意味着使用 ChatGPT 为法庭访客快速创建信息丰富的视频【2】,解释法庭着装规范或居民申请监护所需的表格等主题。他说,生成式人工智能工具可以在几分钟内以相当低的成本制作出高质量的教学视频。
他说:“我现在就可以告诉这些生成式人工智能工具进入我们的自助网站,并根据我们已有的所有信息编写一个脚本,然后将其制作出一个非常简洁、流畅的教学视频,我可以在30分钟内做好,而且呈现出非常好的视觉效果。”
该技术还可以帮助网站访问者获得问题的答案。施莱格尔正在致力于构建一个基于 ChatGPT 的聊天机器人,以回答一些基础的后勤问题,例如下一次开庭日期是什么时候。它可以使访客不必打电话寻求答案。施莱格尔表示,他正试图对聊天机器人进行限制,只让它从特定的、指定的知识库中获取答案,并阻止访问者向它寻求法律建议。
布里奇特·麦克马克(Bridget McCormack)是密歇根州最高法院前首席大法官,现任美国仲裁协会-国际争议解决中心 (AAA-ICDR) 的主席兼首席执行官,该中心是一家提供调解和仲裁服务的非营利性组织。
她表示,生成式人工智能有可能为那些请不起律师的人减少障碍——这一群体主要由中小型企业以及美国的大多数人组成。
麦克马克说:“大多数家庭法案件在法律上的定性和判决都是清楚明白和显而易见的。”。
因此,让普通读者——而不仅仅是律师——能够获得和理解法律信息是很重要的。AAA-ICDR测试几种生成式人工智能模型时,其中一个尝试就是让工具用任何人都能理解的语言重新阐述表格内容。
威廉玛丽法学院法律与法院技术中心 (CLCT) 的网络法研究员克里斯·谢内菲尔(Chris Shenefiel) 也指出,除了该功能之外,生成式人工智能还可以为在线图片编写描述信息,为盲人提供帮助。
当机器为人类纠纷进行仲裁与调解
麦克马克还认为,生成式人工智能最终有可能协助庭外纠纷解决。这样做的目的是使整个流程更快,从而降低相关各方的成本。但该工具是否适用于这一目的将取决于对其的训练。当然,保障措施在这里也很重要,其中之一就是允许任何一方拒绝人工智能的决策并要求人工审核。
简而言之,麦克马克说,“生成式人工智能支持争议解决有着巨大的潜力。”
相关研究正在进行,据报道今年夏天蒙特利尔大学网络司法实验室正在计划一个项目【3】,探索基于大型语言模型的对话机器人是否可以支持在线调解。由于人类调解员经常同时监督多个调解,所以容易因为情绪失控导致调解事件走向不可控的方向。这个项目的目标之一是研究该工具是否可以通过监控讨论的语气,并在事情变得激烈时提醒调解员来缓解这一问题。
法院不仅需要考虑自身对生成式人工智能技术的使用,还需要考虑律师和其他提交证据的各方的潜在使用。
例如,律师可能会利用该技术来帮助研究或起草文件,但过度依赖可能会存在风险,因为众所周知,生成式人工智能有时会编造虚假信息。然而,法律领域的一些公司却将问题更多地归咎于通用人工智能工具。他们已经发布了针对法律文本进行训练的专门模型,以努力减少捏造行为。
法官还应该警惕该技术可能带来其他类型的风险,例如人工智能制作的照片、音频或视频等作为法庭案件证据进行输入。目前,尽管一些人工智能公司已自愿承诺开发一种用于区分人工智能生成信息的系统,但这些深度伪造品可能难以检测。
法律研究中的生成式人工智能
在现在臭名昭著的阿维安卡航空公司诉讼【4】中,一名律师使用 ChatGPT 来帮助研究,提交了一份法律简报,其中引用了人工智能捏造的不存在的案例。
这也许是一个不足为奇的结果。威廉玛丽法学院法律和法院技术中心的网络法律研究员克里斯·谢纳菲尔表示,当今的通用生成式人工智能工具,包括 ChatGPT,旨在编写结构良好的句子,而不是生成准确的信息。
“它设计的目的是预测给定一个主题或句子,接下来应该出现什么单词或短语,”谢内菲尔说。“……它可能会失败,因为它并不能验证其所说的真实性,而只能验证接下会出现什么的可能性。”
当它没有明确的提示指引时,模型就会编造一些东西。这意味着目前的生成式人工智能工具可能会帮助法官或律师编写初稿或组织思路,但无助于确保法律的准确适用。
华盛顿特区高等法院退休的法官 赫伯特·B·迪克森(Herbert B.Dixon)最近详细讲述了【5】自己使用 ChatGPT 并发现其列出的引用不准确的经历。迪克森试图确定其中的一段话是完全杜撰的还是只是错误的引用,最终他放弃了:“我花了更多的时间试图追查这句话的来源,而不是写这篇文章。”他写道。
迪克森总结道:“用户必须像在互联网研究、在社交媒体上寻求建议或阅读来自陌生人或新闻媒体的突发新闻文章时一样谨慎对待聊天机器人的回复。在自身对这些工具输出的信息进行验证之前,请不要轻信。”
生成式人工智能的“幻觉和偏见”
目前有一些法院已经实施了有关使用生成人工智能的规则。
德克萨斯州的一位法官发布了一项指令,要求律师要么证明他们已经通过传统方法验证了人工智能生成的内容,要么证明他们避免使用该工具。
“这些平台非常强大,在法律领域有很多用途:离婚表格、取证请求、文件中的错误提示、口头辩论中的预期问题。但法律简报不是其中之一,”布兰特利·斯塔尔法官写道,“这些平台在目前的状态下很容易产生幻觉和偏见……虽然律师宣誓要抛开个人偏见、成见和信仰,忠实地维护法律并代表他们的客户,但生成式人工智能是由人类设计的程序产物,它们无需做出这样的宣誓。”
路易斯安那州地方法院法官斯科特·施莱格尔表示,他理解为什么一些法官希望制定政策强制要求披露生成式人工智能的使用情况,但他个人认为这是没有必要的。他指出,根据《联邦民事诉讼规则》第11条或类似政策,法院已经要求律师宣对其提供信息的准确性进行宣誓。
施莱格尔说,律师在将敏感的客户信息输入生成式人工智能工具时还需要谨慎,因为这些工具在设计上可能无法保证这些信息的私密性。
尽管如此,施莱格尔相信 ChatGPT 尤其能帮助经验丰富的律师。这些律师已经具备了审查文件错误的敏锐能力。他说,对他们来说,生成式人工智能本质上“是一种更加复杂的剪切和粘贴”。
但施莱格尔说,新律师使用它可能会受到影响,他们还没有积累起捕捉潜在问题的经验,依赖该工具可能会妨碍他们了解法律的细微差别。
为法律定制的生成式人工智能工具
生成式人工智能从 Twitter、Reddit 和其他来源获取信息,而这些信息来源可能无法提供准确的法律答案。不过,谢内菲尔表示,经过法律文本训练的专业生成式人工智能可以做得更好,他只是泛泛而谈,并没有指出任何特定的人工智能。
考虑到这一点,一些公司正在努力创建专门为法律领域的人工智能工具。
其中包括 LexisNexis 的Lexis+AI;人工智能初创公司Harvey’s Harvey和Casetext 的CoCounsel,所有这些都在今年首次亮相。这些工具旨在总结法律文件和搜索法律信息,并经过训练以利用法律信息数据库。
例如,根据 Politico 的报道,Harvey 基于GPT-4,但仅限于从指定的数据集而不是开放的互联网中提取数据。这些措施旨在减少错误。尽管如此,小心谨慎仍是必要的。
大卫·瓦克林(David Wakeling)在接受 Politico 采访时,正在领导安理国际律师事务所(Allen & Overy) 推出 Harvey。他说,A&O的运作“假设它(Harvey)会产生幻觉和错误”,并将该工具比作“一个非常自信、非常善于表达的12岁孩子,它不知道自己不知道什么”。
深伪证据:不得不面对的未来
生成式人工智能还可能影响法庭证据。谢内菲尔(Shenefiel)表示,该技术目前可以创建难以辨别真假的图像和音频,而在未来,视频也可能会出现同样的情况。
这些伪造的媒体可能会被用作证据,而法院则很难发现这种欺骗行为。
“我可以想象用克隆声音拨打威胁电话的指控,”施莱格尔说。“我可以想象有人深度伪造视频的人身伤害案件。”
德克萨斯州的《生成人工智能:法院概述》也提出了这样的担忧,即工具可能会被用来做出虚假但令人信服的司法意见、命令或法令。
谢内菲尔表示,应该要求人们披露是否在作为证据提交的项目中使用了生成式人工智能,但他指出,目前几乎没有方法可以检测证据是否被篡改或完全由此类工具创建。
一种可能的缓解措施是将数字签名或水印附加到人工智能创建的内容上。最近,根据白宫的一份声明【6】,七家人工智能公司承诺开发相关机制,以显示哪些音频或视频是由人工智能创建的。
亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI 自愿做出了这些承诺,至于他们是否会履行承诺,我们拭目以待。当然,数字水印需要无处不在的普及才能充分发挥作用。
文章来源:https://www.govtech.com/public-safety/what-does-generative-ai-mean-for-the-justice-system-part-1https://www.govtech.com/artificial-intelligence/what-does-generative-ai-mean-for-the-justice-system-part-2
注释:
【1】https://judgeschlegel.medium.com/chatgpt-ai-in-the-justice-system-6891d33f282
【2】https://twitter.com/Judgeschlegel/status/1655558142598557697?s=20
【3】https://www.ajcact.org/en/2023/07/16/faire-de-la-mediation-avec-chatgpt/
【4】https://www.reuters.com/legal/transactional/lawyer-who-cited-cases-concocted-by-ai-asks-judge-spare-sanctions-2023-06-08/#:~:text=Lawyer%20who%20cited%20cases%20concocted%20by%20AI%20asks%20judge%20to%20spare%20sanctions,-By%20Sara%20Merken&text=June%208(Reuters)%20%2D%20A,chatbot%20in%20a%20legal%20brief.
【5】https://www.americanbar.org/content/dam/aba/publications/judges_journal/vol62no2-jj2023-tech.pdf
【6】https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/