您好, 访客   登录/注册

人工智能犯罪的可归责主体探究

来源:用户上传      作者:

   特邀主持人:魏 东(四川大学法学院教授、博士生导师)
  主持人语:当今时代正在走向互联网+人工智能时代。如果说互联网+法学这一互联网时代法学的新命题、新挑战的核心是数据运用与数据安全的研究,如果说人工智能法学这一人工智能时代法学的新命题、新挑战的核心是人工智能算法运用与算法安全的研究,那么可以说,互联网+人工智能法学这一新命题、新挑战的核心就是数据运用与数据安全、人工智能算法运用与算法安全相互交织为一体的研究。
   为此,本刊特设“互联网+人工智能法学”专题对相关理论问题进行研讨。本期刊发的三篇文章从刑法和行政法角度研讨了互联网+人工智能时代亟需应对的前沿问题。其中,魏东的《人工智能犯罪的可归责主体探究》主要从人工智能时代刑法观视角论证了以下问题:人工智能犯罪在生成机理和内在逻辑上只能是人工智能“算法安全犯罪”,人工智能犯罪仅能归责于作为保证人的“自然人-法人”,(超)强人工智能机器人无法获得与“自然人-法人”一样的“人心人性”,从而无法获得权利义务主体资格。黄明儒、孙珺涛的《论刑法介入互联网金融的限度》一文从罪刑法定、刑法谦抑角度论证了刑法介入互联网金融领域应当保持合理限度,主张行政违法性应为确定刑事违法性的前提,应当准确界分金融创新与金融犯罪,确保立法扩张下的限缩适用。张亚楠的《政府数据共享:内在要义、法治壁垒及其破解之道》深刻分析了政府数据共享存在的诸如权属障碍、版权化难题、权利义务关系紧张、“两秘密一隐私”数据的保护等法治壁垒,主张通过对数据权利进行定性,将政府数据共享协议引入流程,秉承从权力本位到责任本位的理念转变,实现政府数据共享的专业性立法。
   希望这三篇文章能够起到抛砖引玉的作用,能够有更多学者继续深入研讨互联网+人工智能时代的刑法、行政法、民商法等部门法问题和法理学问题。
  〔摘要〕 人工智能犯罪在生成机理和内在逻辑上只能是人工智能“算法安全犯罪”。基于人工智能犯罪中人工智能算法安全的相对自主性与绝对客体性的犯罪机理,人工智能犯罪仅能归责于作为保证人的“自然人-法人”责任论。人工智能犯罪中“人心人性”的刑法常识观,应当确认人工智能犯罪的可归责主体,只能是作为算法安全社会关系主体的“自然人-法人”二元主体。为妥当解决人工智能犯罪的归责原理和实践问题,应当在坚守人工智能犯罪“自然人-法人”二元主体模式的基础上修改完善刑法立法。
  〔关键词〕 人工智能犯罪,算法安全犯罪观,“自然人-法人”二元主体模式
  〔中图分类号〕D924     〔文献标识码〕A 〔文章编号〕1004-4175(2019)05-0005-09
  一、引言:问题真伪与基本立场
   人工智能①犯罪的可归责主体问题,当被作为一个“问题”来讨论时,该问题意识的内在逻辑在于:认清当下,思考将来。所谓认清当下,是指认清当下弱人工智能犯罪“真相”,在那些通过弱人工智能(即弱人工智能机器人②,又称专用人工智能机器人③)所实施的犯罪中,弱人工智能(机器人)被作为“犯罪工具”予以评价和处置,可谓“犯罪工具论”;在那些针对弱人工智能所实施的犯罪中,弱人工智能则被作为“犯罪对象”予以评价和对待,可谓“犯罪对象论”。可以说,对于当下弱人工智能犯罪,刑法学界秉持弱人工智能“犯罪工具论”和“犯罪对象论”立场,认为人工智能犯罪的可归责主体只能是“人”(包括自然人和法人④)而不能是弱人工智能(机器人)本身,这是没有争议的,或者说这里不存在争议问题、不是问题意识之所在。所谓思考将来,是指思考将来可能出现的(超)强人工智能(即强人工智能机器人与超强人工智能机器人,又称通用人工智能机器人与超级人工智能机器人)犯罪“真相”,可否超越弱人工智能“犯罪工具论”和“犯罪对象论”,从而使得(超)强人工智能机器人成为犯罪主体(犯罪主体论)和可归责主体(可归责主体论)?这是有争议的,或者说这里才存在争议问题,也才是问题意识之所在。对此问题,理论界存在较大分歧:一是主张(超)强人工智能机器人“犯罪主体论”和“可归责主体论”,可谓肯定论。如,有论者笼统地承认(超)强人工智能机器人的犯罪主体性 〔1 〕;有的则具体指出,当(超)强人工智能机器人在程序设计和编制范围外实施严重危害社会的行为时,(超)强人工智能机器人具有辨认能力和控制能力,因而具有刑事责任能力,应当独立承担刑事责任 〔2 〕;还有的明确指出,“可以参考法人主体的拟制思路,逐步探索构建人工智能刑事主体资格的法律拟制模式,基于人工智能的发展逐步构建和完善人工智能主体的意思要素、行为要素,使之正式进入刑法主体范围” 〔3 〕。二是否定(超)强人工智能机器人“犯罪主体论”和“可归责主体论”,可谓否定论。如,有的主张绝对地否定人工智能机器人的犯罪主体地位,认为人工智能体只可能引起过失犯罪问题,并以修正的过失犯理论为依据将自主性人工智能引起后果的责任排除在“可容许的危险”范围之外,并以此在设计者、贩卖者、利用者之间分配过失犯罪的责任 〔1 〕;有的则认为技术水平、价值观念、具体认定等方面尚存在较大困难,不可贸然将(超)强人工智能机器人纳入刑法规制的行为主体范围 〔4 〕。综上可见,人工智能犯罪的可归责主体的问题意识应当进一步限定并具体细化为:(超)强人工智能犯罪的犯罪主体与可归责主体是否可以是(超)强人工智能?
   值得注意的是,法学界有一种声音认为:当前讨论(超)强人工智能犯罪——作为一种是否可能真实发生而尚未可知的“将来”犯罪——及其可归责主体是否可以是(超)强智能机器人的问题,纯属无稽之谈的“伪问题”(即“伪问题论”),实无讨论之必要。前述部分否定论者持有这种见解。刘艳红教授批评说:那种认为“必然会出现具有自我意志的(超)强人工智能,人工智能可能会取代人类、机器算法会取代人类法律……因而主张法律甚至刑法积极应对和规制人工智能的发展”的观点,其实“只是依靠无数假想拼凑起来的幻影”,法学界部分学者在不断制造、跟风、放大“假问题”。〔5 〕应当说,“伪问题论”通过质疑将来而回避问题本身的论说思路可能并不可取,看不到或者忽视“将来”的思考也无益于问题的有效解决,因而“伪问题论”自身的问题意识也存在合理性疑问。事实上,同刑法学界所讨论的(超)强人工智能机器人犯罪“高频率问题”,即(超)强人工智能机器人犯罪的归责主体是否可以是(超)强人工智能机器人这一设问相呼应,民法学界乃至国际私法学界也较多地讨论了智能机器人的民事主体地位(资格)问题,例如针对2017年2月16日欧洲议会通过的《关于机器人民事法律规则的决议》建议至少应明确最精密的自主机器人拥有“电子人”地位,使之能够承担其引发的损害的责任,并可能把“电子人格”适用于那些机器人自主决定或其他独立与第三方交互的案件;再如,针对同年7月8日我国国务院发布的《新一代人工智能发展规划》,提出“建立(人工智能应用)追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等”,民法学者就提出应赋予人工智能系统“电子人”法律主体地位,或者确认其有限的法律人格,似乎认为未来赋予(超)强人工智能系统民事法律主体地位已是大势所趋 〔1 〕。宪法学、行政法学和法理学界也讨论了智能机器人的法律主体地位和法哲学问题,甚至认为“人工智能的诸多法理问题中,最为关键的是它的法律主体资格问题” 〔6 〕,有的法理学者较为绝对地强调“应当赋予人工智能独立的法律主体地位并使其成为独立的责任主体” 〔1 〕。如此众多法学论题的提出业已表明,(超)强人工智能犯罪的可归责主体问题很可能就是一个真问题,并且是一个具有重要学术价值、必须予以厘清的重大基础理论问题,以致有学者认为“人工智能的主体难题是其刑法命题的根本所在” 〔3 〕。可见,尽管表面上看伪问题论同否定论一样,二者在基本立场上都是否定(超)强人工智能“犯罪主体论”和“可归责主体论”,但是二者在论说路径上存在差异,否定论是在否定伪问题论(即承认“真问题”论)基础上进一步反对肯定论的理论言说,因此应当承认,在肯定论、否定论的立场之外还有伪问题论。当然还应当承认,针对真问题论的否定论,不能只是就事论事地简单作答,還必须进一步深化问题意识,深入研讨智能机器人犯罪内在机理和相关法理,科学合理地解决相关法律实践问题。    本文主张否定论,认为人工智能犯罪包括弱人工智能犯罪、强人工智能犯罪乃至超强人工智能犯罪在内,在生成机理和内在逻辑上只能是人工智能“算法安全犯罪”(即“算法安全犯罪观”),其犯罪主体和可归责主体只能是作为算法社会关系主体的“自然人-法人”二元主体(即“自然人-法人二元主体论”或者简称“二元主体论”),在此基础上秉持科学合理的刑法观和方法论,才可能妥当解决人工智能犯罪的归责原理。
   二、犯罪机理:人工智能犯罪中人工智能算法安全的相对自主性与绝对客体性
   人工智能犯罪概念,理论上有较为宽泛的多样化的界定。有学者认为,人工智能犯罪(AI-Crime)指与人工智能系统研发、提供、应用和管理相关的犯罪;人工智能犯罪与网络犯罪具有相似性和紧密联系,其特点主要有智能性、直接作用于网络社会和物态社会“两个社会”的双重性;根据人工智能犯罪主要侵犯的法益及其行为特征,可以將其分为侵犯人工智能系统安全的犯罪、利用人工智能实施的传统犯罪、利用人工智能侵犯个人信息的犯罪和独立的外围人工智能犯罪、违反人工智能安全管理义务的犯罪 〔1 〕。有的学者没有概念化地界定智能机器人犯罪,而是具体描述了智能机器人犯罪的类型。如王肃之指出:“人工智能犯罪可能涉及以下2种类型:第1种类型为人工智能本就应用于社会之中,由于人工智能出现问题或者其他原因产生危害社会的后果……第2种类型为人工智能被直接用于犯罪。” 〔3 〕再如刘宪权指出,智能机器人实施严重危害社会的行为可分为两种,即在程序设计和编制范围内实施的行为和在程序设计和编制范围外实施的行为 〔2 〕。可见,对人工智能犯罪的概念界定,有犯罪学与规范刑法学的不同视角及回答。从规范刑法学视角看,目前理论界对于智能机器人犯罪的生成机理与内在逻辑的揭示尚存不足,部分研究成果从犯罪学视角讨论智能机器人犯罪的现象、规律与未来发展,并没有为规范刑法学合理有效地规制智能机器人犯罪提供足够的理论智识资源,急迫需要确立服从并服务于规范刑法学和刑事法治论的研究目标,转换研究视角,深刻揭示智能机器人犯罪的根本特质。
   应当说,目前理论界给出的人工智能犯罪概念,共性地存在的突出缺陷在于:或者未能精准地揭示出人工智能犯罪的根本特质是基于人工智能算法所实施的犯罪,或者没能更进一步看清人工智能算法的相对自主性与绝对客体性。这在一定意义上是一个犯罪观问题。犯罪观是关于犯罪本质、价值、功能及其发展规律等犯罪基本问题的根本看法和基本立场,可以说是人生观和世界观在犯罪问题上的反映。马克思主义经典作家认为,犯罪只能是人的行为而不能是人的思想⑤,是“孤立的个人反对统治关系的斗争” 〔7 〕379,是“蔑视社会秩序的最明显、最极端的表现” 〔7 〕416。那么,基于马克思主义犯罪观应当认为,人工智能犯罪仍然是人的行为,是人基于人工智能算法所实施的危害社会的行为,“人”是犯罪主体,而人工智能(机器人)并不能成为犯罪主体。这一结论不仅符合马克思主义犯罪观,而且也是精准揭示和阐释人工智能犯罪内在机理的结果。
   人工智能算法自主性是智能机器人的本质属性和关键功能,算法自主性越强大,则智能性越强大,以此为标准对智能机器人进行分类,智能机器人方有弱智能机器人与(超)强智能机器人之分。对此,有论者夸大强调人工智能算法的法律意义问题,认为“人工智能应用会创造出新的客体和新的社会活动,如人工智能创造物的权利主体和权利归属问题,以及人工智能法律系统运作的法律价值和合法性问题。以上新客体、新社会活动都由人工智能算法的运用产生,算法实际起着创造者的‘智能’或者社会活动的规则作用,有必要开启人工智能的‘黑箱子’——人工智能算法,分析人工智能应用的‘大脑’和‘控制手’,研究人工智能算法的逻辑过程是否符合法律和伦理” 〔1 〕。还有学者指出,关于人工智能的算法自主性,伦理学意义上的担忧在于:一是大数据和高级算法可能会使所有人丧失未来的自由选择权,“更为恐怖的是,当基于算法的信用数据集可以预测某人未来犯罪的可能性时,公安部门可能会以‘预防犯罪’为名提前干预他的自由权利”;二是大数据和高级算法可能会带来数据歧视问题,“当司法大数据推测黑人的犯罪率较高或阿拉伯人成为恐怖分子的可能性较高,那么监管部门可能会对他们重点监管,甚至提前预防犯罪,而有些公司也可能会据此拒绝雇佣他们,这就是典型的种族歧视和职业歧视” 〔8 〕。这些论述较为深刻地揭示出人工智能算法的重要性和法律相关性,值得重视,更值得反思。人工智能算法到底是应该绝对地归属于人工智能本身,还是应归属于作为人工智能算法的设计者、创造者、使用者与管理者的“人”?对此设问,我们认为正确的答案应当是:“人”才是人工智能算法的真正主人,人工智能算法自主性仅具有相对性并且在根本上是由“人”创设和控制的,因而人工智能算法相对于“人”而言具有相对自主性与绝对客体性。
   例如,有学者提出人工智能武器的概念,指出,能够在没有人类参与的情况下选择和攻击目标的武器或者武器系统都可以称为人工智能武器。“从国际人道法的角度来看,人工智能武器主要带来了两个方面的挑战:一是武器系统选择和攻击目标能否尊重国际人道法规则?二是如果武器系统的使用明显违反国际人道法,能否归责于个人或国家,并追究他们的责任?” 〔9 〕依笔者的解读,关于人工智能武器的法律问题至少包括以下两方面:其一,人工智能武器可以归属于人工智能吗?答案应当是可以肯定的,人工智能在其被用于军事目的时,它是人工智能“军人”,又可以称为人工智能“武器”,其本质在于具有能够在没有人类参与情况下的人工智能算法自主性。以此类推,人工智能机器人还可以包括人工智能“工人”“农民”“医生”“驾驶员”“科学家”“清洁工”等等,阿尔法狗和索菲亚当然也都是人工智能机器人。因此,人工智能机器人之“人”仅仅是一种“拟人化修辞意义上的人”,它可以是“人”、动物乃至其他万物(如武器)的人工智能机器。其二,人工智能武器基于算法自主性所实施的军事攻击行为及其后果,是归属于人工智能本身还是归属于“人”(包括作为法人的单位乃至国家)?答案应是只能归属于“人”。人工智能算法自主性是由“人”预设和主宰的结果,因而只具有相对的算法自主性与绝对的客体性,基于人工智能算法自主性所实施的全部行为后果——无论是有利于社会还是有害于社会,均应由作为其主宰者的“人”享有和承担。如果人工智能武器基于算法自主性而攻击错误或者违反国际法,对此承担后果的社会关系主体只能是“人”,而不可能是人工智能武器。    综上,算法犯罪观认为:相对于人的主体性而言,人工智能算法突出地具有客体性(算法的客体性),因而以人工智能算法自主性为内核的人工智能当然具有客体性,算法犯罪仍然以人的主体性为根本特征。如果说“算法”是智能机器人的内核,那么“算法”本身的弱智能性与强智能性乃至超强智能性,其决定因素在根本上仍然是“人”的弱智能到超强智能,而不是人工智能本身的弱智能到超强智能。“人”的智能强弱在根本上具有决定性,意味着这样一种逻辑:“人”的智能设计越弱,则算法的智能自主性越弱;人的智能设计越强大,则算法的智能自主性越强大,超强人工智能在本质上仍然是“人”的智能设计达到了超强智能性。因此可以说,人工智能发展仅具有单向维度,即:只能是由今天的弱智能自主性“算法”走向将来的强大乃至超强大智能自主性“算法”(可谓“将来算法”)。以超级计算机的诞生为例,它实际上就是从普通计算机(弱智能自主性)走向超级计算机(超强智能自主性),其内核就是算法智能自主性及其发展方向。“算法智能自主性”的刑法逻辑始终是:人对“算法智能自主性”犯罪承担刑法责任,人对“算法智能自主性”的定罪逻辑始终是“人力可控时可定罪,人力不可控时不定罪”,人工智能犯罪在当下尚处于弱人工智能“算法”阶段的定罪逻辑如此,在今后发展成为(超)强人工智能“算法”阶段的定罪逻辑仍然如此,根本无法例外地对(超)强人工智能机器人本身定罪。
   需要指出的是,人工智能犯罪在网络时代可能表现出更加巨大的破坏能量,因为人工智能算法自主性可以通过网络工具和数据应用获得更大发挥空间,值得特别警惕。
   三、责任论:人工智能犯罪仅能归责于作为保证人的“自然人-法人”
   传统刑法理论上“保证人”理论(即“保证人说”)具体包括“保证人地位”与“保证人义务”两个概念,本来是用于阐释不作为犯之作为义务的理论。德国学者那格拉在1938年首次提出了保证人说,认为只有负有防止结果发生的法律上的作为义务的人,即处于保证人地位的人的不作为才符合构成要件;后来又发展成“统一说”(或者“统和说”)与“区别说”两种不同见解,但是“两说在实际使用上并不会出现太大的差异” 〔10 〕196-197。而人工智能犯罪并不限于不作为犯,还包括作为犯。人工智能犯罪在不作为犯的情形下,当然可以运用保证人说来进行理论阐释。那么,人工智能犯罪在作为犯的情形下,是否可以借助保证人说来进行理论阐释呢?本文认为,对于人工智能犯罪的作为犯,仍然可以借助保证人说的“保证人地位”与“保证人义务”理论,赋予作为人工智能设计者、制造者、使用者和管理者的“自然人-法人”的安全保证责任,即作为保证人的“自然人-法人”必须对人工智能及其内含的算法的安全性负责,将人工智能基于算法安全性所为的行为及其结果归属于作为保证人的“自然人-法人”。亦即,人工智能在设计和编制的程序范围内外所为人工智能犯罪的责任归于作为保证人的“自然人-法人”,这种保证人论归责论不能局限于不作为犯构成要件符合性与违法性论的理论界说,而必须作出符合传统刑法教义学归责论的理论改造。以“自然人-法人”的责任归属为核心的刑法教义学原理,无法将(超)强人工智能犯罪的责任归属于(超)强人工智能机器人,因为这样将遮蔽作为设计者、生产者、销售者、运营管理者的“自然人-法人”的责任归属这一本质。有学者指出,应当借鉴刑事近代学派所主张的社会防卫论,创立以人工智能等科技风险为对象的“科技社会防卫论”与“技术责任论”,将人工智能作为独立的刑事责任主体,对具有实施危害社会行为的人工智能施以技术危险消除措施 〔11 〕。这种见解将“技术责任论”直接置换为“将技术作为责任主体论”,直接遮蔽了作为保证人的“自然人-法人”的责任归属这一本质,应当说有所欠当。
   责任论的多重考察可以发现,在从道义责任论到社会责任论再到法的规范责任论的发展演变中,即便是作为最新见解的法的规范责任论也始终无法彻底摆脱道义责任论,即必须具有自我决定的自由以及具有实施其他行为的可能性时才产生责任的非难的宿命;从结果责任论到心理责任论到规范责任论再到功能责任论的发展历程中,不但规范责任论仍然是以心理责任论为前提建立起来的理论,而且功能责任论也仍然是以行为人对法规范的“忠诚”和“意思自由”为前提的⑥。可以说,意思自由性、伦理谴责性、规范责难性等要素仍然是现代各种责任论的实质内涵,而这些实质内涵只能是作为保证人的“自然人-法人”才可能具备,并不能将人工智能算法的相对自主性与绝对客体性直接等同于意思自由性、伦理谴责性和规范责难性。
   伦理谴责性和规范责难性是现代刑法责任论的重要内容。伦理谴责性是犯罪的内在伦理评价属性。规范刑法学方面有论者主张否定犯罪的伦理谴责性,客观上存在严重误解。针对卖淫、通奸、吸毒以及其他“無被害人犯罪”行为,现代刑法基于刑事政策考量而部分地甚至较多地出现非犯罪化,其并非完全否定犯罪的伦理谴责性,而是强调不得单纯基于伦理谴责性进行犯罪化,还需要进行社会危害性的综合考量来决定具体行为的犯罪化与非犯罪化。针对行政犯(或者法定犯),现代刑法也难以完全否定犯罪的伦理谴责性,任何行政犯——例如危险驾驶罪、非法经营罪、破坏计算机信息系统罪等,都难说完全否定了其伦理谴责性,而是强调了不得单纯基于伦理谴责性的犯罪化。只有“自然人-法人”才能感受伦理谴责性并遵行此种感受决定行为取舍,而人工智能仅具有“算法”逻辑并决定其行为逻辑,但是不具有感受伦理谴责性的能力并决定行为逻辑,人工智能“算法”自主性及其行为逻辑只有在融入了作为保证人的“自然人-法人”的保证意思之后才具有伦理谴责性,因而只能针对同人工智能“算法”自主性相关联的保证人(即“自然人-法人”)进行伦理谴责性评价和犯罪评价,人工智能犯罪只能归责于作为保证人的“自然人-法人”。规范责难性是犯罪的外在规范评价属性。规范刑法学的教义化、科学化和现代化的重要发展,根本标志就是规范责任论的确立,强调刑法的明确规定性、规范性和可操作性,由于此内容并非本文论题的重点,这里不作具体展开论述。    (超)强人工智能机器人没有脱离于“自然人-法人”之外的独立存在空间,(超)强人工智能机器人一旦脱离作为保证人的“自然人-法人”之外就无法组成社会组织,其智慧算法和行为永远无法归属于其自身而只能归属于“自然人-法人”,即使其具有意识复制和学习进步的特异功能,其仍然无法脱离作为保证人的“自然人-法人”的意识——保证人所预设的算法自主性的意识而独立存在,其仍然无法成为具有“人心人性”的责任主体。只有将强智能机器人犯罪归责于作为保证人的“自然人-法人”,才能真正实现有效归责(即伦理谴责和规范责难)。
   民法学者对于人工智能基于算法所引致的法律上的权利和责任之讨论,也有值得刑法责任论借鉴之处。如基于人工智能所引致的著作权的法律主体与权利归属问题,有学者提出了“法律作者”概念,指出,“小冰”人工智能机器人的出现,挑战了传统著作权法的底线。面对高速发展的人工智能技术,现在社会人工诗集大量出现,更多的人工作品涌现,我们积极采用“法律拟制”技术,参照发达国家“视为作者”原则,在认定人工智能诗集的作者和著作权归属上,大胆认定人工智能诗集是著作权法的“作品”,人工智能的管理者是作品的“法律作者”,把机器人、设计者、管理者作为人工智能诗集的“事实作者”对待,最终法律保护人工智能诗集的“法律作者”,由“法律作者”享有人工智能诗集的著作权,而不是由机器人享有人工智能诗集的著作权 〔12 〕。人工智能诗集作为人工智能机器人的具体行为所产生的结果,其权利与责任归属于作为保证人的管理者(即“自然人-法人”),而不能归属于人工智能机器人,这一原理值得刑法上犯罪的归责论借鉴。当然在刑法上,除了管理者之外,人工智能的设计者、制造者的归责问题还需要进一步厘清。例如,当人工智能诗集的内容存在严重违背国家法律规定并被公之于众产生严重社会危害后果时,如果构成犯罪,那么应该如何确定其归责主体及其刑事责任?对此,应当首先确定作为人工智能的保证人的“自然人-法人”,包括设计者、制造者、使用者、管理者,然后再依据刑法上归责原理具体确定保证人的刑事责任,而不应当通过对人工智能机器人归责的方式来规避保证人的刑事责任。
   刘宪权提出,在设计和编制的程序范围外人工智能犯罪的归责主体问题,认为:“当智能机器人在程序设计和编制范围外实施严重危害社会的行为时,智能机器人具有辨认能力和控制能力,因而具有刑事责任能力,应当独立承担刑事责任。” 〔2 〕这种见解的逻辑问题值得分析。其一,这个问题仍然应当在人工智能算法自主性的相对性与绝对客体性之内来认识;其二,在设计和编制的程序范围外人工智能犯罪的归责事由,还可以根据原因自由行为论,将作为保证人的“自然人-法人”基于自由意思所为“在设计和编制的程序范围外实施行为的智能机器人”这一行为阐释为原因自由行为的归责原理来阐释,作为保证人的“自然人-法人”所实施的人工智能算法的设计、制造、使用和管理行为仍然可以作为原因自由行为进行归责,而不是对人工智能算法本身归责。
   因此,针对学者提出的人工智能编制程序外的算法犯罪,尽管这种人工智能犯罪类型可能涉及十分复杂的技术难题,但是仍然应当承认其没有超越保证人责任,只要其应当属于算法安全风险可控性之内,就应当承认其成立保证人责任,并实行举证责任倒置原则(程序法原则)。如果其不属于算法安全风险可控性之内,则应当承认其为意外事件而不追究保证人责任,并且这种意外事件也难以“客观归责”于人工智能算法本身。
   四、刑罚观:人工智能犯罪仅能通过“自然人-法人”完成报应和预防功能
   刑罚论的基础和核心是刑罚正义根据论,简称刑罚根据论、刑罚论。刑罚根据论在概念逻辑上存在报应论(报应刑论)、功利论(预防刑论与目的刑论)、并合论(一体论)之分⑦,并且应当注意的是,在人类刑法实践历史上应当说并不存在单纯的报应论或者单纯的功利论,自古至今世界各国普遍遵行相当意义上的并合论,“抛弃片面的报应论与功利论而追求系统的一体论,应该是关于刑罚根据论的一种必然而合理的选择”⑧。刑罚的正当化根据是报应的正当性与预防犯罪目的(功利主义)的合理性,基于报应所裁量的刑罚是责任刑,基于预防犯罪目的(功利主义)所裁量的刑罚是预防刑⑨。应当说,刑罚根据论的并合论命题一经发现和明确提出即获得了广泛共识,并且表面上至今没有人提出更具创新性的理论洞见 〔13 〕357。以此刑罚观及其内在法理审查(超)强人工智能犯罪的受罚主体,如果将(超)强人工智能机器人本身作为可归责主体并对其进行刑罚处罚,就无法获得合理性和可行性。
   目前部分学者针对(超)强人工智能犯罪所提出的“删除数据、修改程序、永久销毁” 等刑罚种类 〔2 〕,应当说难以匹配刑罚本质并实现刑罚功能。因为这些特别“刑罚种类”只有作为保证人的“自然人-法人”才能感受到并起到以儆效尤的刑罚惩罚(报应)与预防功能,而(超)强人工智能机器人并不可能关心“惩罚与预防”而只在乎“算法”并且将始终不改地按照其既定“算法”行事(行动),“算法”被修改而改变行为的原因不是因为惩罚影响“人心人性”所致,而是因为“算法”所为,由此无法实现刑罚的一般预防和特殊预防功能。单罚制与双罚制均无法适用于智能机器人。
   因此,刑法无法规制作为被“自然人-法人”塑造的智能机器人。可以让(超)强人工智能機器人(有智无心)超越人,但是(超)强人工智能机器人不可以成为社会关系人。(超)强人工智能机器人可以在智力领域超越人,正因为如此,它不能成为真实存在的社会关系人。当(超)强人工智能机器人可以由“人”随意塑造时,应受处罚的只能是作为塑造者的“人”,而不能是作为被塑造者的(超)强人工智能机器人;当(超)强人工智能机器人已经发展到唯我独尊,而不再可以由“人”随意塑造时,人类的刑罚就在根本上丧失了要求其应受处罚的合理性。
   五、刑法常识观:人工智能犯罪中“人心人性”的人类社会学意义
   作为刑法学方法论的“三常论”,要求研究者必须针对研究对象、研究方法、研究结论等进行“三常论”判断(即进行常识、常情、常理的判断)⑩,排除有违“三常论”判断的学术见解。“三常论”判断可能具有时空性,当下的三常论判断,必须立足于“当下”的常识、常情、常理进行学术判断;将来的三常论判断,则必须立足于“将来”的常识、常情、常理进行学术判断,也就是说既要反对以当下的三常论判断代替将来的三常论判断,也要反对以将来的三常论判断代替当下的三常论判断。当下,不少人认为“将来已来”,那么,在“将来已来”的语境下,当下刑法学应当如何预判“将来”的三常论内核?通过“将来”的三常论判断,刑法学还应当摒弃(超)强人工智能机器人“犯罪主体论”吗?这是本文希望回答和论证的两个关联性问题。   (超)强智能机器人可否成为社会关系的主体(身份)?当下的和将来的“三常论”判断需要考察以下要素:
   (一)心智齐备是人成为社会关系主体的核心要素。“三常”本来就是对人的心智的高度概括,即对人心人性和人的智慧的高度概括,人是具有“三常”特质的灵长类动物。人类社会是由人(自然人)自我发展、自我构建、自主建设而成的,而人之所以能够自我发展、自我构建、自主建设成立人类社会,是因为人是有心智的“万物之灵”,从而人可以成为社会关系主体。心智齐备是人成为社会关系主体的核心要素,这是当下的“三常论”判断。心智齐备强调的内容,不仅是有“智”(智慧),而且是有“心”(人心人性),有心有智(或者有智有心)是人的特质,是社会关系主体的特质。人具有实质的“三常”特质,法人(含国家)具有拟制的实质的“三常”特质,因此可以说自然人和法人具有实质的“三常”特质。为什么说法人具有拟制的实质的“三常”特质?简单说,是因为法人是具有自然人心智的组合体,“资合”仅是法人的表象,“人合”才是法人的实质,所以有人感叹应当像选择结婚对象一样选择股东和合伙人;法人决策时即使在出现“人不合”和公司僵局的情形下,其决策仍然能够适时体现出实质的“三常”特质。
   那么,(超)强智能机器人是否具有心智,进而成为社会关系主体?依“三常论”判断,(超)强智能机器人难以符合“心智齐备”的特质,其可能具有“智”甚至是超强智慧,但是其难以获得“心”(即人心人性),因而(超)强智能机器人仅仅是“有智无心”之物,并不具备社会关系主体特质,难以成为社会关系主体(身份)。
   可以说,心智是当下“三常论”对社会关系主体特质判断的核心要素,将来“三常论”判断也是如此,心智是社会关系主体所必须具备的基本特征。
   (二)(超)强智能机器人不具备人“心”,仅具有财产性和工具性,缺乏善恶道德价值观、社会行为规范的根本作用点。人“心”是善恶道德价值观、社会行为规范的根本作用点。“有心”(有人心有人性)意味着有善恶道德价值观、社会伦理价值观、有社会行为规范可能性,有智无心(无人心无人性)不能成为社会关系主体。这是“三常论”判断的理论基础。有学者指出:人之所以为人,本质上是智性、心性、灵性三者合成,心性是感情、情绪、感觉的发源地,不同于智性;机器人虽可仿及人的智性,但不能仿及人类心性(尚未闻人工智能有感情,未闻有机器人为情所累),人工智能不可能达到人类一般的“主体性” 〔6 〕。由于智能机器人“有智无心”的特点,因此(超)强智能机器人也可以称谓为“强智能机器狗”“阿尔法狗”。难道,索菲亚能够超越“强智能机器狗”“阿尔法狗”而成为真正的人?
   财产性与工具性是(超)强智能机器人和法人的共性,但是法人因为具有拟制的“人心人性”而可以获得拟制的主体性,而机器人因不具有“人心人性”而无法获得任何拟制的主体性。即机器人与法人的相互关系是单向性的,即法人可以像人一样拥有其他法人和机器人,而机器人不能擁有法人和(其他)机器人。机器人的特质仅仅是“技术”而不是人的心智(有智无心),法人可以融入人的某种心智(有智有心),从而法人可以成为社会关系主体。
   有智有心者方为同类,“人心人性”是人类的基本要素,动物因为具备初步的或者较强的“人心人性”而成为人类伙伴,有利用有珍惜,某些“通人性”的动物还获得了较大尊荣(如某些动物被赋予“人”一样的待遇);但是索菲亚和阿尔法狗却无法获得“人心人性”而只能成为更加纯粹的财产性,难以获得人的同类身份和待遇。
   (三)机器人无法融入“三常”的刑法感知能力。 “三常”是刑法感知能力的基本要素,法人可以融入“三常”,法人具有感知刑罚的能力并且使得刑罚功能可以发挥报应和预防功能,因而法人可以成为犯罪主体和受罚主体。而机器人无法融入“三常”(有智无心),机器人无法感知刑罚并发挥报应和预防功能;当前智能机器人不能成为犯罪主体,这是“三常论”判断,至于将来,可能有待于“将来的三常论判断”,但是当前的乃至将来的三常论判断是其未来仍然不可能成为犯罪主体。
   综上可以说,以索菲亚(美女)和阿尔法(狗)的共性分析为例,可以预知将来(超)强人工智能机器人身份的三常论判断结论是:其只能成为“人心人性”的客体,而不可能成为“人心人性”的主体。
   六、刑法进化观:人工智能犯罪中“自然人-法人”二元主体模式的坚守与完善
   刑法进化观强调刑法有一个进化发展的过程,而不能死守过去。例如,法人犯罪的立法化和司法实践,尽管其在理论上尚存争议,但是在相当意义上仍然可以说其是刑法进化观的一个例证。如前所述,法人(含国家)具有拟制的、实质的“三常”特质而可以成为可归责主体,有学者就以法人犯罪中“法人”犯罪主体论和可归责主体论为例,来论证人工智能犯罪中(超)强人工智能机器人犯罪主体论和可归责主体论的合理性。那么,这种论证逻辑及其结论的合理性值得反思。
   法人拟制犯罪的刑事政策原理不能适用于人工智能犯罪,在形式上和实质上(超)强人工智能犯罪均毫无例外地属于“自然人-法人”犯罪的范畴。仅在(超)强智能机器人(个体与群体)作为“法人”资格时其可以成为法人拟制犯罪,但是这时其是因为作为“法人”而成为犯罪主体,而不是因为“(超)强智能机器人”而成为犯罪主体。“自然人-法人”的行为社会意义可以独立地成为自身的法律行为,但是(超)强智能机器人的行为社会意义无法独立地成为“其自身”的法律行为,而只能成为作为居于保证人地位的“自然人-法人”的法律行为。(超)强智能机器人永远只能成为社会意义上的“无产阶级”,但是“自然人-法人”从一开始就是社会意义上的“有产阶级”(指自身的权利义务),这是(超)强智能机器人不同于“自然人-法人”的根本特质。二元主体模式无法走向三元主体模式。
   (超)强人工智能机器人犯罪可能包括杀人、侵财、危害国家安全与公共安全、破坏经济秩序与社会秩序等,但是其自身难以获得社会政治意义,这一点不同于“自然人-法人”犯罪,因为“自然人-法人”犯罪可以获得社会政治意义。上帝不会成为刑罚对象,但法人可以,故“上帝-人”二元主体模式不可隐喻;但基于犯罪主体拟制论之下的心智可控论、独立权利义务主体资格论和刑法治理策略论,可构建“自然人-法人”二元主体模式,但是无法构建“自然人-法人-人工智能机器人”三元主体模式。为解决法人和人工智能机器人难题,刑法上可以处罚法人,但是刑法策略上无法处罚机器人,因为针对(超)强人工智能机器人的删、改、毁,仅可以成为针对作为(超)强人工智能机器人之保证人的“自然人-法人”的财产而施加的相应的行政法措施(具体行政行为)、民法措施(民事法律行为)乃至保安处分措施。因此,关键法理在于(超)强人工智能机器人无法获得与“自然人-法人”一样的“人心人性”,从而无法获得权利义务主体资格,今天无法获得,将来也无法获得,其根本法理正在于(超)强人工智能机器人永远无法获得“人心人性”。    刑法进化观尽管不能证成(超)强人工智能机器人的可归责主体论,但是也不能以此放弃针对(超)强人工智能机器人犯罪提出的新问题进行刑法完善的思考。人工智能机器人犯罪在本质上可以抽象为“算法安全犯罪”,即人工智能机器人毫无例外地被限定为通过算法或者针对算法所实施的危害公共安全犯罪以及妨害作为算法安全管理的社会管理秩序犯罪,这些犯罪明显地具有不同于网络数据犯罪以及其他通过非智能算法和数据所实施的传统犯罪的突出特点。据此,人工智能算法犯罪可以类型化为三种犯罪:
  一是设计、制造、销售、使用不符合算法安全标准的人工智能产品罪,其侵害的法益是作为公共安全的人工智能算法安全,可以比照《刑法》第146条的立法规定设置罪状和法定刑。提出这一立法建议方案的理由在于:尽管《刑法》第146条规定的生产、销售不符合安全标准的产品罪作为一般法条规定,在逻辑上可以囊括所有生产、销售不符合安全标准的产品——其中可以包括不符合算法安全标准的人工智能产品——的犯罪行为,表面上可以将生产、销售不符合安全标准的人工智能产品行为予以定罪处罚,但是,《刑法》第146条并没有准确反映出人工智能产品所涉“算法安全犯罪”的特殊性,即这种算法安全犯罪在本质上是一种危害公共安全犯罪而非一般意义上的生产、销售伪劣商品犯罪,因而应当将其单独设罪并规定在危害公共安全罪一章之中;同时,《刑法》第146条也没有全面规定“设计、制造、销售、使用”等行为多样性,较为明显地忽略了“设计”“使用”不符合算法安全标准的人工智能产品行为的特殊危害性,因而也有必要增加规定该新罪名。
  二是非法制造、持有、买卖、运输、使用人工智能武器罪,其侵害的法益是作为重大公共安全的人工智能算法安全,可以比照《刑法》第125条的立法规定设置罪状和法定刑。之所以提出比照《刑法》第125条规定这个新罪名,重要原因是人工智能武器所涉国际关系和国内政治上的重大公共安全性,极容易造成人道主义重大灾难,而在刑法规范意义上难以将人工智能武器周全涵摄于“枪支、弹药、爆炸物”或者“危险物质”之中,因而增加规定该新罪名具有重大政治意义和法治价值。
  三是擅自改变人工智能产品算法与用途罪,其侵害的法益是作为算法安全管理的社会管理秩序,可以比照《刑法》第286条的立法规定设置罪状和法定刑。之所以提出增加规定这个新罪名,是基于人工智能产品算法与用途一旦被擅自改变,就可能造成人工智能产品的管理失序并引发新的危害算法安全犯罪和危害管理秩序犯罪;同时,算法安全管理不同于数据安全管理,如果说《刑法》第286条是针对数据安全管理的犯罪,那么,本新罪名就是针对算法安全管理的犯罪,因此,有必要在《刑法》第286条规定的破坏计算机信息系统罪之外再特别规定擅自改变人工智能产品算法与用途罪。
  有关人工智能算法安全犯罪方面的立法完善论有待另文展开深入讨论,这里不再赘述。
   注 释:
   ①本文在使用“人工智能”这一语词时可能具有多重含义,其可以作为名词使用,含义等同于“人工智能機器人”;也可以作为修饰语使用,含义等同于“人工智能的”或者“人工智能机器人的”。
   ②人工智能根据智能水平的高低可以分为弱人工智能(Weak Artificial Intelligence)、强人工智能(Strong Artificial Intelligence)和超强人工智能(Super Artificial Intelligence)。参见高铭暄、王红:《互联网+人工智能全新时代的刑事风险与犯罪类型化分析》,载《暨南学报》(哲学社会科学版)2018年第9期。
   ③人工智能还可以分为专用人工智能、通用人工智能、超级人工智能三类。参见赵秉志、詹奇玮:《现实挑战与未来展望:关于人工智能的刑法学思考》,载《暨南学报(哲学社会科学版)》2019年第1期。
   ④由于我国《刑法》规定了单位犯罪,因而这里的“法人”是指可以构成单位犯罪的“法人”单位。
   ⑤这里马克思指出的原文是:“凡是不以行为本身而以当事人的思想方式作为主要标准的法律,无非是对非法行为的公开认可。”参见《马克思恩格斯全集》(第1卷),人民出版社1957年版,第16页。
   ⑥参见陈家林:《外国刑法理论的思潮与流变》,中国人民公安大学出版社、群众出版社2017年版,第371-377页。
   ⑦参见张明楷:《新刑法与并合主义》,载《中国社会科学》2000年第1期;邱兴隆:《关于惩罚的哲学:刑罚根据论》,法律出版社2000年版,第331-333页。
   ⑧邱兴隆教授认为,“报应论与功利论在人类历史上曾各领风骚,各显辉煌,但终归为一体论所取代”。参见邱兴隆:《关于惩罚的哲学:刑罚根据论》,法律出版社2000年版,第332页。
   ⑨参见张明楷:《论预防刑的裁量》,载《现代法学》2015年第1期。
   ⑩参见陈忠林:《刑法散得集(Ⅱ)》,重庆大学出版社2012年版,第17-27页。
   参考文献:
  〔1〕皮 勇.人工智能刑事法治的基本问题〔J〕.比较法研究,2018(05):149-166.
  〔2〕刘宪权.人工智能时代刑事责任与刑罚体系的重构〔J〕.政治与法律,2018(03):89-99.
  〔3〕王肃之.人工智能犯罪的理论与立法问题初探〔J〕.大连理工大学学报(社会科学版),2018(04):53-63.
  〔4〕赵秉志,詹奇玮.现实挑战与未来展望:关于人工智能的刑法学思考〔J〕.暨南学报(哲学社会科学版),2019(01):98-110.
  〔5〕刘艳红.人工智能法学研究中的反智化批判〔J〕.东方法学,2019(09):1-83.
  〔6〕范忠信.人工智能法理困惑的保守主义思考〔J〕.探索与争鸣,2018(09):76-83.
  〔7〕马克思恩格斯全集:第3卷〔M〕.北京:人民出版社,1960.
  〔8〕何 渊.智能社会的治理与风险法学的建构与证成〔J〕.东方法学,2019(01):68-83.
   〔9〕张卫华.人工智能武器对国际人道法的新挑战〔J〕.政法论坛,2019(04):144-155.
  〔10〕陈家林.外国刑法理论的思潮与流变〔M〕.北京:中国人民公安大学出版社,群众出版社,2017.
  〔11〕黄云波.论人工智能时代的刑事责任主体:误区、立场与类型〔J〕.中国应用法学,2019(02):163-175.
  〔12〕李伟民.人工智能诗集的版权归属研究〔J〕.电子知识产权,2019(01):22-27.
  〔13〕魏 东.死刑修改的刑罚论分析〔C〕//郎胜,朱孝清,梁根林.全国刑法学术年会文集(2017年度):时代变迁与刑法现代化(上卷).北京:中国人民公安大学出版社,群众出版社,2017.
  责任编辑 杨在平
转载注明来源:https://www.xzbu.com/4/view-15004853.htm