论人工智能犯罪的刑法规制

作者:未知

  摘要:人工智能给人类的生活、学习、工作带来了极大的便利,但也给伦理道德、刑法理论和立法路径提出了新的挑战。人工智能无论是作为犯罪工具,还是作为犯罪主体,当其严重侵害社会法益时,法官在罪刑法定原则、刑法目的等因素所作出的判决往往公信力不足。因此,有必要正视现行刑法规制人工智能犯罪的困境,结合科技发展水平和社会伦理、道德现状,创新刑法理论思考,完善刑事立法工作,努力创造更健康、更广阔的人工智能的发展前景。
  关键词:人工智能 刑法规制 犯罪主体 刑罚处置
  随着现代科技的日新月异,传统犯罪逐渐向虚拟网络空间发展。犯罪分子通过互联网这一媒介,利用网站漏洞,酿成了许多电信诈骗悲剧。通过互联网传播淫秽物品以此牟利,深圳快播案便是典型例证。人工智能时代的到来,使人工智能犯罪这一新型犯罪现象随之出现。既然面对互联网技术的高速发展,对计算机犯罪做出了法律规制,增设了破坏计算机信息系统罪、非法侵入计算机系统罪等网络犯罪罪名。那么,面对人工智能技术的飞速发展,做出预判性立法和创新型法律思考也是题中应有之义。
  一、人工智能的概述
  人工智能简称Al(Artificial Intelligence),概念的首次提出是由麦卡锡和明斯基于1956年美国的达特茅斯会议。人工智能就是模仿人类学习以及其他方面类人智能的一门科学技术。人工智能的应用逐渐普及于医疗、教育、军事和娱乐等社会的方方面面。人工智能的发展,按照智能化的程度分成三个阶段:弱人工智能(AlphaGo类智能体,擅长单一领域内的技术和操作),强人工智能(具有類人智慧)以及超强人工智能阶段(超越人类智慧,具有自主意识)。
  人工智能技术控制下的人工智能体给人类生活带来便捷和舒适,代替人类从事简单重复累赘的工作,为人类提供解决环境污染、气候变暖等问题的方案,攻克人类难以根治的疑难杂症。但是,我们也不能忽略人工智能体给社会治理、伦理道德、传统法律带来的风险。在“人工智能可能毁掉人类”之类的论断抛出之后,人工智能威胁论也愈演愈烈。全球首例无人驾驶汽车致人死亡的交通事故发生于2018年3月19日的美国亚利桑那州,处于自动驾驶状态的Uber无人驾驶汽车撞击一名女子,致其不幸死亡。央视曾在2016年9月曝光了国内首起特斯拉疑因“自动驾驶”致死事故。事故发生于2016年1月20日,一位23岁的年轻男性乘坐的特斯拉自动驾驶汽车,于京港澳高速河北邯郸路段时撞上了前方的路道清扫车,年轻男性不幸身亡,特斯拉轿车严重损坏。世界上第一宗机器人杀人事件发生在1978年的日本。据相关资料显示,日本广岛一家工厂在生产作业时,由于切割机器人突然发生异常,切割钢板的机器人误将一名值班工人当作钢板进行程序操作,最后导致该名工人死亡。重庆大学图书馆引入了自助借还书机,其在一定意义上也属于人工智能。自助借还书机器的引入使得图书馆逸夫楼人工借还书的职位得以裁剪,以小见大可知人工智能的广泛运用势必会导致大量中低端行业的人员失业。法律具有天然的滞后性,立法理论和司法实践总是落后于科学技术的发展。现行刑法没有将人工智能体纳入应当承担刑事责任的主体范围内,不能完全有效规制人工智能犯罪,因此对于人工智能引发的责任事故该如何进行责任分配成为一个新的难题。无人驾驶汽车致人死亡追究测试员的责任未免太过苛刻,让汽车制造商承担相关民,刑事责任又会阻碍科学技术的创新发展;罪刑法定原则下的现行刑法也不能将人工智能实体作为犯罪主体加以追责。法律为了保持其活力和前瞻性,对于人工智能给传统刑法理论、刑法立法路径提出的新挑战应予以积极回应。
  二、人工智能犯罪的刑法规制所面临的困境
  (一)主体地位不明确
  弱人工智能阶段的人工智能引发的侵害社会法益问题尚能通过《产品责任法》来进行一定的规制,但是随着科学技术的快速发展,人工智能实体逐渐拥有自主意识,人工智能实体成为“犯罪嫌疑人”不是不可能的。要通过刑法有效规制人工智能体,人工智能体的主体难题是其刑法命题的根本所在。传统刑法理论将犯罪构成分为四要件:犯罪主体、犯罪主观方面、犯罪客体、犯罪客观方面。刑法将犯罪主体定义为实施危害社会行为,依法应当负刑事责任的自然人和单位。人工智能实体非自然人也非单位,当人工智能实体成为犯罪工具时,正如前述所举例的全国首例利用人工智能进行犯罪,刑法完全可以对此犯罪行为进行有效规制。人工智能实体只是其进行犯罪的工具,只需对犯罪相关人进行归责。当人工智能实体不再是人类的犯罪工具,其真正地成为形式意义上的“法律主体”。换言之,在超强人工智能阶段出现风险时,刑事责任主体的认定和归责不再像传统责任认定那样简单。人工智能产品通过深度学习、自主学习拥有了一定的自主意识,实施了危害社会的危险行为时又该如何运用现行的法律法规进行规制,这又将涉及人工智能体是否应该成为刑法中的法律主体焦点问题。刑法对人工智能实体犯罪方面的立法回应不仅是体现出对社会法益的法律保护,也影响着人工智能科学这一技术的健康发展。一方面如果学界和立法专家将人工智能实体可能考量为法律主体作为一个伪命题而概括性地忽视,未来出现的可能不再是人类是否需要对人工智能体纳入刑事责任主体的范围,而是拥有自主意识的人工智能体开始驾驭人类并给人类设置一套精妙绝伦、毫无翻身余地的机器人法律。人类届时的存在目的是服务人工智能实体甚至是可有可无的存在。但是另一方面如果不顾社会公众的接受程度、社会发展进程、科学技术发展程度盲目草率将其纳入法律主体又有点矫枉过正,浪费立法资源、破坏法律的稳定性。保守的公众会质疑人工智能实体的自主意识,认为科学技术的发展还没有到达所谓的超强人工智能阶段,纯粹浪费立法所需的一切人力、物力、财力,不利于人工智能技术的向前发展,不符合我国创新发展战略目标,也不是发展科技强国的应有之义。刑法应对人工智能体的犯罪的矛盾越是强烈,其所处的困境越是突显。
  (二)刑罚处置不科学
  刑法应对人工智能犯罪表现出两类处置难题。一方面,如若将人工智能与单位等量齐观纳入传统刑法理论中的犯罪主体范围之中,随之而来面对的将是如何对该主体进行刑罚处置这一新的难题。人工智能实体不同于自然人拥有生命、自由、财产和资格等权利,生命刑(如死刑)、自由刑(有期徒刑,无期徒刑)、资格刑(剥夺选民资格,职业禁止)等不能生搬硬套用于机器人承担刑事责任的方式;同时,人工智能实体也不同于单位。对单位犯罪有三种处罚方式:单罚制,双罚制,代罚制。依照我国现行刑法规定对单位犯罪以双罚制(对单位和单位直接人员处以刑法)为主,以单罚制(只处罚单位直接责任人员)为辅。而人工智能体的刑事责任承担方式也应该具有其天然的特殊性,以区别于单位犯罪的惩罚方式。费尔巴哈的心理强制说认为人是具有趋利避害性的认知。为了防止犯罪,必须抑制行为人感性的冲动,科处作为犯罪的刑罚,让人类预知犯罪的风险高于可获利益,这样达到抑制其心理上萌生犯罪的意念。费尔巴哈的理论观点同样可以类推适用于人工智能实体。如果参照单位进行刑法归责适用无限额判处罚金的规定,意义不明显且不能达到刑法的目的,这是由人工智能实体不具有单位的经济性、功利性、公共性等特点所决定的。从另一个角度乐观地看待人工智能的发展,保守地认为人工智能体绝不会通过深度学习从而拥有自主意识,不能像自然人一样具备意思能力和行为能力,也不具有类人智能甚至是超越人类智能的可能性。无需考虑将其拟制为法律主体,只需将其作为人类使用的客体和工具,对人工智能实体引发的犯罪适用于产品责任法,对人工智能实体的拥有者、制造者、销售商进行归责。但是深入思考也会发现其中的课罪难题,试想如果是人工智能实体自身的程序错误严重侵犯了公众的生命权益和其他社会重大法益该如何进行归责。对机器人的持有者进行归责不符合传统犯罪构成理论的主观方面,让制造商和销售商承担刑事责任未免太牵强,不符合罪责刑相适应原则。   三、关于人工智能犯罪的刑法规制的建议
  (一)推进人工智能体“人格化”
  弱人工智能阶段的人工智能体大多数表现为按照设置编入的程序和深度学习进行操作运转,目前尚在人类可控范围之内。但科技是不断向前发展的,强人工智能阶段甚至是超强人工智能阶段是可能性的未来。因此将人工智能体法律拟制为刑法上的法律主体,将其“人格化”是有理论实践意义的。单位犯罪早在17世纪英国的《刑法》中就有所规定,我国首次提出单位犯罪是在1987年1月22日,1997年《刑法》首次将单位犯罪纳入刑事法律主体规制中。沙特阿拉伯授予人形机器人公民身份,刑法理论探讨人工智能实体的“人格化”和历史不谋而合。基于人工智能体犯罪在法律主体上的限制,可以参考单位犯罪拟制为法律主体。单位犯罪和人工智能体都非自然人,刑法将單位犯罪纳入法律主体地位,拟制人工智能实体为法律主体也是合理可推敲的。人工智能实体“人格化”之后,刑事,民事责任分担问题不再那么棘手。需要强调的是,人工智能体应该获得限制性主体地位。虽然法律面前人人平等,但是在衡量自然人和人工智能体之间利益时,首先应该保护的是自然人的利益。同样的事情同等对待,不同的事情要差别对待。对于法律面前人人平等的阐释也是如此。法律主体资格的限制性需要依据人工智能体的智能化程度来拟定其相应的刑事责任,和民法意义上自然人民事责任年龄有共通之处。因此对人工智能体的法律主体资格有必要承认与限制。
  (二)明确相关责任人的归责原则
  人工智能实体引发犯罪时,有可能是作为人类的犯罪工具,也有可能是机器故障过失,也有可能基于人工智能实体的自主意识主动实施危害社会的危险行为。如果将其拟制为法律主体,其归责模式也可以综合参考适用我国单位犯罪的处罚模式(以双罚制为主,单罚制为辅)以及国外对单位犯罪的处罚的代罚制制度。当人类故意利用人工智能实体实施违法犯罪时,严重侵害社会法益进入刑法规制范围则适用双罚制,即对人工智能实体及其所有者进行刑事处罚:如若人工智能产品出现故障,程序代码发生错误严重危害社会法益时应适用代罚制,即人工智能产品制造商或者销售商和所有者由于过失或者放纵导致人工智能体一错再错,需要代位承担刑事责任。此外,人工智能实体经过科学技术的高速发展、深度学习、高度发达的神经网络从而拥有了自主意识,为了人工智能实体类群的不法利益危害人类生命安全甚至要建立机器人王国则适用单罚制,即对人工智能实体这一限制法律主体进行严格刑法规制。而对于人工智能实体如何处罚,下面将展开必要的探讨。通过明晰的责任归责,一方面可以达到刑法的预防目的,另一方面可以实现刑法的保护机制,正如德国刑法学家冯李斯特所指出:刑法既是善良人的大宪章,也是犯罪人的大宪章。严格透明的责任追究制度使得奖罚分明,实现公平公正。
  (三)促使人工智能体的刑罚处置科学化
  鉴于人工智能产品的特殊性,刑罚制度也具有特殊性。适用财产刑可以借鉴欧盟法律律师委员会提出的两点责任规制建议中的强制保险和赔偿基金。人工智能体应该适用于严格的登记制度,保证追责路径。此外,人工智能实体的所有者也需要进行登记,类似于购买汽车一样,签订合同、强制交付保险。当人工智能体引发犯罪时,启动强制保险来减少被害人的损失这类做法一方面可以方便追责,另一方面防止偷税漏税,向人工智能实体征税也是未来会发生的。赔偿基金由社会人士、国家等主体进行创立维护,当强制保险和相关责任人都无法对受害人进行赔偿的情况下,可以启动人工智能实体赔偿基金,赔偿基金也可以用于研发人工智能技术。在弱人工智能阶段和强人工智能阶段,对人工智能体财产刑之外的惩罚思考是“降能”:一旦人工智能实体严重危及社会法益,重新编写其程序和算法,改变其原来的智能用途,设置一些无害、简单的单一用途(重复拖地这一单类简单操作)。例如美国的机器人医生沃森一旦出现大面积重大医疗事故或者利用医生身份进行其他犯罪,则需要改编编程,降低其智能长处,考虑其“降能”为一个人工智能洗碗机等等。这样既有效达到了资源的可持续利用,又降低了“人工智能犯罪分子”的社会危害性。
转载注明来源:https://www.xzbu.com/3/view-14960317.htm

服务推荐