您好, 访客   登录/注册

人工智能进法院的可能风险探讨

来源:用户上传      作者:

  摘要:人工智能技术在法院的应用可以提升司法效率,缓解当前法院案多人少的局面,提高司法过程的标准化,促进司法公正。同时人工智能技术也是一把“双刃剑”,在为我们带来便利的同时也可能带来一系列风险。本文探讨了人工智能进法院的现实需求,分析研究了未来人工智能可能给法院带来的风险。
  关键词:人工智能;智慧法院;算法;风险
  中图分类号:TP18 文献标识码:A 文章编号:1007-9416(2020)03-0222-02
  0 引言
  近年来通过发展高效的人工智能技术将迅速普及,同时人工智能技术具有网络化效应,一旦系统出现漏洞,则可能出现系统性的风险。由于人工智能技术准确性远超人类法官,法官可能在办案过程中形成路径依赖,同时由于司法责任制,法官要对案件结果负责,再加上在互联网发达的今天,任何案件都可能在网络发酵,引发舆论危机,法官为了规避风险,更有采纳人工智能给出的答案的冲动,这可能使法官失去办案主动权,沦为系统的助手。人工智能系统的标准化结果,会使两审终审制以及公检法的相互制约关系变得形同虚设。人工智能办案结果更正确、更标准,但是对标准的追求可能导致社会多样性的缺失,导致社会价值观的一元化,从而影响社会的发展,甚至造成社会风险,多样性是社会发展的保证,因此应允许法官有不同意见,允许法官犯错,使司法活动有人味儿。
  1 人工智能进法院的现实需求
  2016年3月到2017年5月,谷歌旗下人工智能系统阿尔法狗Alpha Go及其升级版Master对决人类顶尖棋手并取得完胜后,人工智能开始被普通大众所熟知,一时间全社会掀起了一场对人工智能思考及讨论的热潮。目前人工智能已经在医疗、自动驾驶、金融等多个领域得到广泛应用,并且在某些方面已经有了比肩甚至超越人类顶尖专家的能力。与此同时,“法律+人工智能”的模式在法律界也已经成为一个新的发展方向,美国一些州法院已经开始将人工智能技术普遍用于审前保释或判决后的假释风险评估中,加拿大科技公司开发的ROSS法律人工智能项目利用IBM Watson的平台进行技术开发与升级,能够识别用户自然语言问题,并给予精确、快速的回答,目前ROSS已经在国际上获得多家知名律师事务所客户[1]。案多人少、錯案频出一直是困扰我国司法审判工作的难题,近年来人工智能技术的飞速发展似为我们解决这一难题指出了一条道路,2016年7月由中办国办印发的《国家信息化发展战略纲要》中提出“建设智慧法院,提高案件受理、审判、执行、监督等各环节信息化水平,推动执法司法信息公开,促进司法公平正义。”将“智慧法院”建设作为我国信息化发展战略的重要组成部分,拉开了我国法院人工智能审判系统建设的序幕,于是各地法院纷纷上马了自己的人工智能项目,目前上海、北京、浙江、江苏、广东、贵州等地法院均已推出了自己的人工智能办案系统,其中比较成功的有上海法院的“206”刑事案件智能辅助办案系统,北京法院的“睿法官”智能研判系统及江苏法院的智能办案工具。在审判方面,人工智能可以以现有的大量司法案例数据为基础,通过深度学习,基于智能算法,对海量案件进行分析,做出相应的法律判断,实现“大数据”与“专家经验”完美结合[2],当前智能审判已经能够对法律关系简单的案件做出相对准确的判断,可以想见,随着技术的进步,人工智能在法院必将更有用武之地。
  2 未来人工智能可能给法院带来的风险
  与其他学科不同,信息技术的发展具有发展速度迅猛,更新迭代快速的特点,人工智能亦处于高速的发展之中,与此同时,近年来人越来越多的人开始对工智能的迅猛发展表示担忧,特斯拉汽车创始人艾伦·马斯克及著名科学家霍金都曾公开表达过对人工智能的发展可能对人类社会带来威胁的担忧,虽然能够完全取代人类的所谓强人工智能目前还遥遥无期,但是任何一项新技术的广泛应用都会改变人类现有的生产工作及交往方式[3],技术是一把双刃剑,司法作为正义的最后一道防线,所以在司法人工智能的应用中更应对其所能带来的相应影响保有充分警觉并尽力规避,总体来说,以下问题需要注意:
  2.1 系统性错误风险
  2018年前文提到的智能医生Watson就被爆出给多名癌症患者开错了药,给有出血症状的癌症病人开出了易出血的药物,无独有偶,美国亚马逊公司的人脸识别软件也曾闹出过将多名国会议员识别成罪犯的笑话,上述例子在人工智能领域并不罕见,通常情况下,人工智能的效率及准确率是远超人类的,但是是系统就难免出现漏洞,一旦出现漏洞,人工智能则可能出现错误。人工智能出错和人类出错有一个区别,就是人类出现差错往往体现在个案上,比如医生可能因为一时疏忽等原因为某个病人开错药,但其结果往往只影响到具体的患者,但人工智能如果存在漏洞,其出错则是成批出错,最后可能造成大错。另外,所有的人工智能系统都是网络化的,每一个终端都与系统相连并相互影响,而计算机的思维是不会变通,不会反思,它只会以设定好的目标为方向继续执行指令,美国股市曾经多次出现过因为计算机系统而引发的股灾,因为人在设计计算机操作股票时,为了确保在暴跌时他们的委托人能够立即止损,会瞬间抛售掉手中的股票,而这种操作会触发另一台计算机的止损条件,于是形成雪崩式的链式反应,造成股灾。司法人工智能领域当然也存在上述的风险,更为严重的是,随着司法人工智能的发展,在信息交流极度通畅的今天,最有效的智能算法会迅速的被各地法院运用,此时一旦算法出现漏洞,则可能出现大面积的错误,而此时的错误就并非个案错误,而是系统性的类案错误。司法活动对当事人乃至对社会都有着巨大的影响,鉴于此,人工智能与法院工作的结合更应采取保守的态度,稳扎稳打,不宜冒进,确保引进的是经过市场考验的成熟且可靠的技术,同时应密切监视系统的运行状态,建立高效的系统故障响应机制,确保将风险降到最低。
  2.2 法官主体性丧失风险
  虽然当前司法人工智能系统还很不成熟,但是随着技术的不断发展,智能阅卷、智能证据审查、智能庭审系统、智能文书起草、智能案例及法条推送甚至智能裁判结果建议等人工智能功能将逐渐完善,法官收到案子后拿到的是经过系统提炼过的案件报告,证据亦经过系统的智能筛查及认证,系统再向法官智能推送类案案例及相应法条,法官需要做的工作似乎就是依据人工智能给出的上述材料顺理成章的作出裁判,如此一来就会产生一个疑问,这样形成的裁判结果究竟是法官作出的还是人工智能系统作出的?当系统作出的判断正确率远高于人类时,人类法官面对系统给出的判断时将很难有产生不同意见的自信,由此产生的风险就是法官可能在办案过程中形成路径依赖,过于信赖系统给出的判断从而怠于自主积极的思考,以致业务能力生疏,甚至沦为系统的助手。另一方面,在司法改革的今天,司法责任制要求法官对案件的结果负责,而互联网的发展使任何一个判决都可能在互联网上迅速发酵,最后形成舆论危机,在这种情形下,法官具有天然的风险规避倾向,此时,人工智能系统给出的标准化答案无疑将成为其最稳妥的方案。因此,如何厘定法官与人工智能系统的关系,保证法官的办案主导权,这也将是我们今后将要面对并不断探索的课题。笔者认为,在法院人工智能系统的建设过程中,我们要明确人工智能系统“为法官节省体力而非脑力”的原则,确立人工智能的辅助性地位,防止系统的越俎代庖。   2.3 对现有司法制度造成冲击的风险
  算法的竞争和发展最终会导致算法相似或统一,事实上因为充分竞争及信息的流通性,整个信息产业都呈现出赢者通吃的特征,微软的视窗操作系统及谷歌的安卓系统便是例证。试想,随着技术发展,真正高效的司法人工智能算法必将出现,也一定会被各地各级司法机关迅速采用,如此一来,假使一审法院根据智能系统作出一个裁判,如果当事人不服,到二审法院上诉,二审法院法官采用同样的算法,其结果就可想而知,那么上诉制度就失去了其存在价值。再如刑事案件,如果公安机关、检察机关、法院都适用同样的算法,那就意味着只要公安机关立案,那么案件的后续流程就将高度明确,不予起诉与无罪判决将变得十分罕见,也使原本公检法之间监督与制约的制度设计变得形同虚设。
  2.4 “正确”的悖论可能导致社会风险
  技术的发展必然使人工智能在精准性上远超人类,人工智能的精准性源于其标准化,在于无论任何情境下输入同样的初始条件都能得到完全一致的答案,和人类相比,它总是更“正确”,但是任何对标准化的极端追求都将导致价值观的一元化,从而可能使问题走向另一个极端,也使最终的结果事与愿违。虽然在当下同案同判是我们追求的目标,人工智能的判断结果可能更“正确”,但是“正确”本身并没有标准答案。法律并不是孤零零的规则条款,而是包含着社会文化、伦理道德、风俗习惯等多重因素的综合体,这些因素亦没有标准答案,而是因时、因人、因地而异的,文化习惯并无优劣,世间也没有能够完全逻辑自洽的伦理和道德,司法活动的目的不仅仅是定纷止争、厘定边界,更有引领社会价值观、教育公民的作用。给法律内涵强行制定精确的标准,司法过程就变成了冰冷的代码输入和机械的数学逻辑运算,如此一来所有人都按人工智能的标准用“正确”的方式想问题,用“正确”的方式做事情,社会将失去活力,创新亦将无从谈起,正如前文提到的人工智能可能出现可怕的大面积错误,而人则不同,通常情况下,每个人的思维方式不同,看问题的方式不同,因此人可能犯各種各样的错误,但是每个人的错误不同,这些错误也就较难形成犯错的合力,但是当每个人都用一样的方式思考时,一旦犯错或者被人利用,则可能发生系统性的灾难。
  “错误”可能是社会发展的动力。从基因学说上看,生物的进化就是由“错误”推动的,细胞在分裂的过程中基因会产生随机性的复制错误,这些错误会使生物体最终表现出不同的性状,这些有着不同性状的生物体在大自然的筛选下,适者生存,整个过程是随机的、无方向的、试错的,没有哪个方向更“正确”,但最终依然造就了富有生机且繁荣的大自然。现代科学已经证明,同自然界一样,社会是一个复杂系统,系统中有无数个相互影响的变量,且每个主体都会按照自己接收到的信息调整自己的状态和行为,这也就导致了复杂系统是不可预测的[4],既然人工智能无法预测社会的发展方向,播下“正确”的种子,不一定收获“正确”的果实,那么我们又如何放心的将不确定的未来交由人工智能去掌管,通往地狱的道路往往由善意铺就,事实上,在复杂系统中,随机性错误远好过系统性错误,因此多样性是维持复杂系统稳定的保证,也是人类文明能够持久的基础,社会的发展需要交锋、需要争鸣,甚至需要试错,与其他社会领域不同,司法具有强制性,当人工智能用司法的快刀法将社会切的棱角分明,社会的车轮则将失去滚滚向前的动力。因此,在法院人工智能的建设过程中,我们一定要严格为其划定适用边界,将纷繁复杂的人类世界留给法官去面对,让人类理性贯彻整个司法过程,让司法更“有人味儿”,同时我们要允许法官有不同意见,允许法官“犯错”,因为“错误”可能是社会进步的台阶,保证法官思维的多样性,防止司法人工智能给社会带来另一种专制。
  3 结语
  总之,法院工作与人工智能的结合是不可逆转的趋势,我们应明白人工智能对法院工作的重大作用,积极的推进人工智能技术,同时我们更应警惕人工智能可能给司法活动造成的影响,尽力避免由此产生的风险。事实上,由人工智能主导的世界可能更“正确”,但绝不意味着更美好,司法不是冰冷的代码,更需要“有人味儿”,因此,在法院人工智能的建设过程中我们应始终对技术保持敬畏,不益过于冒进,同时要始终保持法官在审判工作中的核心地位,确立人工智能的工具属性,严格限制人工智能在司法活动中的适用范围,使其真正做到为法官赋能,为法院减负。
  参考文献
  [1] 左卫民.关于法律人工智能在中国运用前景的若干思考[J].清华法学,2018(02):108-124.
  [2] 严剑漪.揭秘“206工程”:法院未来的人工智能图景[J].上海人大月刊,2017(08):40-41.
  [3] 吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017(5):128-136.
  [4] 赵雪岩,李卫华,孙鹏.系统建模与仿真[M].北京:国防工业出版社,2015.
  Abstract:The application of artificial intelligence technology in the court can improve the judicial efficiency, alleviate the situation that there are many court cases and few people, improve the standardization of judicial process, and promote judicial justice. At the same time, artificial intelligence technology is also a "double-edged sword", which brings us convenience and a series of risks. This paper discusses the actual needs of AI entering the court, and analyzes the risks that AI may bring to the court in the future.
  Key words:artificial intelligence; smart court; algorithm; risk
转载注明来源:https://www.xzbu.com/8/view-15232903.htm