为深化政法智能化建设,加强“智慧治理”“智慧法院”“智慧检务”“智慧警务”“智慧司法”等信息平台建设,深入实施大数据战略,实现科技创新成果同政法工作深度融合。法制日报社已连续举办了七届“政法智能化建设技术装备及成果展”。
作为装备展配套活动,法制日报社于2024年3月继续举办了2024政法智能化建设创新经验征集宣传活动,活动征集了“智慧治理”“智慧法院”“智慧检务”“智慧警务”“智慧司法”创新经验。
在2024年7月10日至11日举办的成果展上,对入选的创新经验进行了集中展示,并已编辑整理成册——《2024政法智能化建设创新经验汇编》。
该汇编分为智慧治理篇、智慧法院篇、智慧检务篇、智慧警务篇、智慧司法篇五个篇章,为政法信息化、智能化建设提供及时、准确、 实用的资讯信息与经验观点。
应广大读者要求,我们特开辟专栏,将部分创新经验进行展示,敬请关注!
以下推出的是《智慧法院篇 | 创新经验之“智慧法院建设中大模型生成式人工智能技术对司法正义的影响研究”》
智慧法院建设中大模型生成式
人工智能技术对司法正义的影响研究
李昊禹 北京建筑大学机电与车辆工程学院
【摘 要】:本研究探讨了生成式人工智能技术在智慧法院建设中的应用对司法正义的影响。通过分析数据幻觉、技术垄断和数据不可控等潜在风险,揭示了其对司法公正、透明度和客观性的威胁。研究旨在引起对智慧法院建设中监管与规范的重视,确保司法系统的公正与透明,维护司法正义的核心价值。
一、引言
中国智慧法院建设经历了初步探索到全面实施和不断完善的过程,体现了国家对于信息化、人工智能技术在促进司法系统现代化方面的重视。2016年颁布的《国家信息化发展战略纲要》提出建设智慧法院,旨在通过提升信息化水平促进司法公平正义。时至今日,智慧法院4.0强调了以知识为中心、以智慧法院大脑和司法数据中台为核心的信息化建设。这一发展方向将智慧法院建设置于知识与技术的核心地位,有望为司法系统的现代化提供强大支持。与此同时,司法正义强调公正、透明度、客观性原则。这些原则是构建信任、保障法律公正执行、并维护司法系统声誉的基石。在不同的法律体系和文化背景中,虽然具体的实施和强调点可能有所不同,但这些原则普遍被视为实现司法公正和维护法治不可或缺的要素。
人工智能的司法应用是智慧法院建设的重点方向。2022年12月9日,最高人民法院颁布了《关于规范和加强人工智能司法应用的意见》明确了人工智能司法应用的主要范围。在2017年至2022年期间,人工智能技术虽然持续发展,但并未呈现出外界预期的爆炸性增长。这一阶段,智慧法院主要采用了诸如专家系统、规则引擎等传统人工智能技术。这类技术的核心特征在于对规则和符号推理的依赖,以及较少的训练数据和神经网络参数,同时它们具备较强的可解释性。然而,自2023年起,随着通用人工智能(AGI)技术的快速进步,人工智能技术迎来了高速发展期,其发展速度与以往不可同日而语。当前,主流的AGI技术以大型语言模型为代表,如GPT等生成式人工智能技术,它们通过数十亿个神经网络参数和深度学习从大数据中学习模式和特征,特别擅长处理大规模数据驱动的任务。可见,生成式人工智能技术的发展为智慧法院建设提供了诸多机遇。但同时带来了三重潜在风险:数据幻觉(Halucination)、技术垄断、数据不可控。三重风险不仅对人工智能技术的应用产生影响,更是对司法正义的三大原则——公正、透明和客观——构成潜在威胁。因此,本文将探讨生成式人工智能技术的三重风险如何影响司法正义的核心原则, 并就此展开深入分析。研究意义在于帮助理解当前智慧法院建设中潜在的风险与挑战,促进对智慧法院建设过程中的监管与规范的重视,以确保司法系统的公正与透明,维护司法正义的核心价值。
二、生成式人工智能对司法正义的影响分析
人工智能仅提供参考,不能代替法官裁判,必须保持司法人员的责任和裁判权。司法正义的实践不仅仅涉及法条的机械应用,更需要法官进行法律的合理解释。尽管当前生成式人工智能技术在单一、固定的机械化判断方面表现优异,但这并不意味着可以替代法官的作用。法官需要在法律事实与案件事实中予以提炼,在浩如烟海的文献中寻找最优裁判依据,进而作出合法合理的公正裁判。这些隐藏的法理、情理与天理的人类情感,生成式人工智能目前并不能很好的理解。然而,随着生成式人工智能技术的应用,出现包括数据幻觉对司法客观性的影响、技术垄断对司法透明的影响,以及人工智能意识觉醒对司法公正的影响。在接下来的分析中,我们将重点探讨这些影响,并对其潜在的影响机制进行深入分析。
(一)数据幻觉对司法客观性的影响
智能技术的应用提升了司法办案客观质量,例如郑州市金水区人民法院研发的“人工智能法官助理”实现了全流程全链条要素式审理,有效缓解了案件积压和裁判不一致的问题。然而,从机理角度看,生成式人工智能的决策依赖于输入的训练数据,而训练数据的质量直接影响了人工智能的输出质量。如果预训练数据库受污染,生成的结论可能具有偏见、不公,甚至包含虚假信息,严重损害司法客观性。目前,司法领域的生成式人工智能训练数据库主要依赖先前的司法裁判文书,但面临数据量不足和构建司法知识图谱的挑战。司法活动难以完全数据化和共享化,同时,法律名词的不确定性也增加了对规则的整合难度。司法知识图谱难以建立,因为司法语言复杂多义,人工智能很难准确理解司法案例中的语义。这也是ChatGPT类人工智能在司法领域表现不佳的原因。
生成式人工智能的数据标注偏见会影响司法公正。为了弥补这一缺陷,需要采用人类反馈强化学习技术进行数据标注和模型训练。然而,这也带来了主观偏见的风险,导致训练数据的污染。生成式人工智能的出现降低了用户的主动思考能力,相比之下,以前的司法过程更注重多方考量和多角度思考,这对于塑造多元价值观,客观看待案件至关重要。
(二)技术垄断对司法透明的影响
生成式人工智技术垄断存在两种垄断形式。一是人为垄断。自2020年OpenAI推出GPT-3以来,经过几年的快速技术迭代,类似的生成式人工智能不断涌现,并且性能逐步提升,需要的投资额高达数十亿至数百亿美元,所需的算力硬件达到数十万个。总体而言,生成式人工智能的技术迭代成本极高,难以承担的负担使得中小型公司很难参与竞争,导致核心算法和算力硬件集中在少数几家公司手中[7],导致相关决策和技术实现的过程缺乏多样性和竞争性,降低了司法透明度。
二是非人为垄断,或为人工智能自身对人类的垄断。人工智能的决策过程依赖于复杂的算法和数十亿的参数选择、权重及数据标签,这一过程被视为黑箱,不透明性导致了对人工智能决策的不信任和难以理解。这种不透明性违反了司法透明原则,即司法决策应当是可解释的。生成式人工智能的决策不可解释性,使得人们难以理解为何会做出特定的裁决或推荐,进而引发了对公正性的疑虑。这可能损害司法系统的公信力,破坏了司法透明的基础。
(三)数据不可控对司法公正的影响
人工智能出现了“涌现”能力,这意味着人工智能不仅具有一定的语言理解能力,也有了一定“上下文推断”能力,因此存在撒谎风险,即故意迎合用户的喜好进行选择性回答,造成“见人说人话,见鬼说鬼话”的现象。导致不公正的判决,加剧司法不公正。
同时,在交互过程中,生成式人工智能会自动地收集用户信息,这些信息可能作为训练数据在不经意间透露给第三人,这会对当事人的隐私和数据安全造成泄露风险,损害司法公正过程中参与者的利益。
另外,生成式人工智能在司法实践中的应用也存在缺乏相互监督的问题。根据《宪法》第140条规定,公、检、法三机关分工负责,互相配合,互相制约。然而,如果不同部门使用相同的算法系统且输出相同的决策结果,相互制约的效力将减弱。而如果使用不同的算法系统,可能会导致系统间的冲突,需要解决优先性问题。
三、结论与展望
本文通过分析生成式人工智能技术在智慧法院建设中的影响,揭示了其对司法正义的潜在威胁。数据幻觉、技术垄断和数据不可控等风险对司法公正、透明度和客观性构成挑战。为了确保司法系统的公正与透明,应当重视监管与规范,防止技术垄断和数据不可控现象的发生。未来,应加强对人工智能技术的监管,推动技术的发展与应用与法治原则的协调一致,以保障司法系统的公正与透明,维护司法正义的核心价值。
责任编辑:晓莉
暂无评论