您好, 访客   登录/注册

智能机器人对现有法律的挑战及对策

来源:用户上传      作者:

  摘要:人工智能时代下出现的智能机器人,现有法律对其的规范调整存在空缺与不足。能产生独立意识自我进行意思表示的智能机器人尚未被创造,故目前没有客观需要来确立其法律主体地位;智能机器人行为侵权时,从所有人的“雇主责任”与产品责任来平衡分配;应承认智能机器人对其自主学习创作的作品的知识产权。最后,在应对智能机器人对传统法律挑战时,应坚持人类利益优先、公共利益优先、共生等基本原则。
  关键词:智能机器人;法律主体地位;侵权责任
  中图分类号:D9文献标识码:A文章编号:1004-1494(2020)01-0113-05
  一、引言
  在科技高速发展的时代背景下,我们每时每刻都能在各个地方感受到人工智能带来的便利,但是与此同时,我们也应警惕人工智能带来的危机。以智能机器人为代表,科技智能时代的发展可以使机器人脱离人类的意志自主行动,也就是说人类即使是程序员也不知道其下一步会做什么,就像一个有自我意识自我认知的人,这使得机器人伦理规范变得极其重要,例如是否应该给智能机器人独立的法律主体地位,智能机器人实施的侵权行为如何认定,甚至智能机器人自我创作的作品是否应该得到保护等问题已经表明智能科技的革命正在冲击着当下的法律规则和社会伦理,甚至颠覆人类原有的法律认知。
  因此,对于奔涌而来的科技革命对传统法律秩序的挑战,我们应面向未来时代解决冲突,实现法律与时代的良好互动。本文将从智能机器人的法律主体地位、智能机器人致人损害以及智能机器人创作作品的知识产权等角度探讨智能机器人对传统法律的挑战。
  二、智能机器人的法律主体地位
  人类在初期创造人工智能的目的是为了服务人类,但随着人工智能队伍的不断壮大,智能机器人已经完全可以脱离人类控制自我行动,智能机器人的自主行为必然会涉及行为的对错,即涉及社会伦理性、道德性。因而我们不得不对其采取规范性措施来压制人工智能高度发展所带来的消极影响。智能机器人是否存在法律人格,将直接影响智能机器人应否有独立的法律地位以及在法律层面对智能机器人的规范方式。学术上对于智能机器人法律主体地位的问题有着激烈的讨论,总体而言有客体说与主体说。客体说否认智能机器人的主体地位,其代表观点有“工具说”“电子代理说”等。主体说承认智能机器人的主体地位,代表观点有“电子人格说”“拟制主体说”等。
  (一)工具说
  人类创造的智能机器人,作为工具服务人类。其最根本最本质的目的是服务人类、工具说认为人类控制智能机器人,给予智能机器人法律主体地位毫无必要。该观点把智能机器人当做服务人类的工具,否认了其独立人格。
  (二)电子代理说
  电子代理人是指不需要人的审查或操作,而能用于独立地发出、回应电子记录,以及部分或全部的履行合同的计算机程序、电子的或其他自动化手段[1]。电子代理人与民法上的代理人存在本质上的区别。民法上的代理人是一个独立的法律主体,拥有独立的人格和财产;而电子代理人究其本质只是合同双方当事人订立合同的手段或者已设立的程序,追溯其本质,是使交易更加快捷的工具,是手段上的进步,它不能够承担民事责任。
  (三)电子人格说
  《欧盟机器人民事法律草案》给予智能机器人一定的法律地位,将它们归类为“电子人”,并且享有一定的权利与义务。
  (四)拟制主体说
  智能机器人拟制主体说,与德国法学家萨维尼主张的法人拟制说具有一致性,都是通过法律将原本不符合条件的主体拟制为民事主体,从而享有权利,承担义务。该主张认为法律是解决人与人之间的问题,无论智能机器人怎么脱离人的控制,始终与人类存在本质差异。民事主体有且只有自然人可以成为民事主体,但可以借鉴法人拟制说,通过法律将智能机器人拟制为民事主体。
  除此之外当前还有有限人格说、权利与责任一体说、控制说等等。笔者认为要把握智能機器人的法律人格,必须先从机器人与人的关系入手。
  要探寻智能机器人与人之间的关系,我们不妨先思考一下工具、机器以及机器人三者之间的关系。三者都是人造之物,都是非生命体,且为人服务。笔者认为三者的区别有:扳手、剪刀等工具在机能上不如汽车等机器,也可以说机器是一种更自动化的工具。在机器的基础上有了人的影子,成为机器人。机器人继续发展能够自我学习产生独立意志进行自主行为,成为智能机器人。工厂流水线上生产,装配等任务由机器人而非工人完成时,这些自动机器取代了工人,但机器终究不是人,机器人从事的行为与人的劳动存在本质上的区别。机器人的行为虽同样是物质资料的生产,但究其根本只是程序编码设计下模仿人的身体动作。人们一方面希望机器人解放自己的双手,无报酬地为人创造资本,另一方面又担忧其发展脱离控制,最终被自己创造的东西淘汰。随着人工智能的发展,智能机器人不仅可以在外表上神似人,还能有理解思考等人特有的能力,甚至能拥有情感,脱离人的控制变得独立。我们不得不思考智能机器人与人之间的界限。刘宪权教授认为智能机器人与人的关系不应是平等的,两者的关系是随着历史发展和科技的进步而不断变化着的,其具体表现取决于智能机器人自身的伦理地位[2]。吴汉东教授在智能机器人法律主体地位问题上认为法律主体须有权利能力,包括自然人和法律拟制的法人。同时指出法律拟制的法人是自然人的集合体,与拥有“人类智慧”的智能机器人依旧存在本质的差别,否认了机器人拟制主体说。王利明教授认为,智能机器人是人类创造出来的,虽可能代替人类从事相关活动,但本质是受其自身算法而决定,尚不具备人类所具有的自主思考的意识和能力,且智能机器人尚不能独立享有权利、承担义务,故目前人工智能机器人还不能也没必要成为法律主体[3]。笔者认为,现阶段我们仍处于弱人工智能时代,目前机器人还未真正达到智能时期,并没有独立意识,不能真正脱离人的控制。因此,在此基础上过早赋予其法律主体地位,还为之过早,在没有客观基础的情况下制定的法律规范也必定没有实际可操作性。   三、智能机器人致人损害的责任分配
  人工智能领域的快速发展,认为机器人或者计算机只是人设计编程创造的工具的固有观点,甚至已经成为一种偏见。1989年,前苏联国际象棋冠军尼古拉·古德科夫和机器人对弈,古德科夫连胜三局,“恼羞成怒”的机器人突然向金属棋盘释放强大电流将这名国际象棋大师击毙。不可置疑,在外观表现上智能机器人能够实施侵权行为甚至刑法上的犯罪,但是谁来承担侵权责任,又如何承担,法律上仍然没有相应的规则进行规制,只能将其当做产品,以产品责任、侵权责任等进行规制。例如2016年联合国科教文组织通过的关于机器人伦理的草案,将智能机器人视为科技产品,因技术等产品缺陷造成的损害,适用产品责任的相关制度进行调整。智能机器人造成的损害总体上可以分成四类:侵权人恶意篡改或控制系统导致损害;系统自身存在瑕疵导致损害;人为操作不当导致损害;智能机器人独立行为进行侵权。
  (一)侵权人恶意篡改或控制系统导致损害
  即使智能机器人有再强的自主能力,但是在被人控制下实施的损害行为,比如黑客入侵篡改编码数据,使其改变了原先设计的程序,做出的异常行为造成损害。此种情况下智能机器人扮演了侵权人行为的工具,而非主体。
  (二)系统自身存在瑕疵导致损害
  人工智能作为新兴事物具有一定的不确定性,人在设计制造并且部署了智能机器人,因内部本身的系统存在瑕疵导致的损害,笔者认为可以参照产品责任追究生产者、销售者的责任。
  (三)人为操作不当导致损害
  人为操作不当导致的损害,首先应排除智能机器人是侵权主体。笔者认为由于智能机器人的行为存在一定的不确定性,人为操作不当导致的损害,不能完全免除生产者或销售者的责任,应视情况承担相应比例的责任。首先,生产者有义务在说明书上标明智能机器人的使用方法及注意事项;其次,将人为操作的不当性程度视为责任分配的考虑因素之一,原因在于人为活动是主观下的实践,具有不确定性,生产者在生产过程就应该考虑到各种不当操作并做好预防及应对措施。
  (四)智能机器人独立行为进行侵权
  当未来人工智能创造出能够产生独立意志,脱离人的控制的智能机器人实施侵权行为时,责任由谁承担,如何分配法律责任上,既有的责任规则已经不能够游刃有余地分配法律责任。智能机器人是完全独立自主行为,没有人为干预或者控制。因此,智能机器人的侵权构成要件只需加害行为、损害事实与因果关系,不需要过错,这里的过错非人为过错,指智能机器人的过错,人为过错自然适用现有法律的归责原则,本文不做探究。被侵权人只需证明损害存在的事实,以及损害的发生与智能机器人有因果关系即可。智能机器人虽能独立实行侵权行为,但是不能够承担侵权责任,自然人、法人或者非法人组织才是侵权责任的最终承担者[4]。
  1.智能机器人所有者的雇主责任
  智能机器人独立意志下的加害行为、因果关系、损害后果都脱离所有者的意志,因此所有者在主观上不存在过错,不适用过错责任原则。基于其与所有者特殊关系在对外承担法律责任时拟制为雇佣关系,适用雇主责任更为合适。比如出租车公司使用自动驾驶汽车接送乘客,公司必须对自动驾驶汽车的行为负责[5]。以如今市场上最受关注的自动驾驶汽车为例。自动驾驶汽车依靠人工智能、视觉计算、雷达、监控装置和全球定位系统协同合作,让电脑可以在没有任何人类主动的操作下、自动安全地操作机动车辆①。自动驾驶分为六个级别:无自动化(L0)、驾驶支援(L1)、部分自动化(L2)、有条件自动化(L3)、高度自动化(L4)、完全自动化(L5)。L0为完全人工驾驶,L1、L2、L3驾驶员需要随时能够接管车辆,以应对自动驾驶汽车不能应对的情况[6]。目前自动驾驶汽车已经可以达到L4的水平,完全自动驾驶,驾驶员可有可无。对于自动驾驶汽车,很多人都怀疑其安全性,但事实上,自动驾驶汽车相比人类驾驶有较少的交通事故。自动驾驶汽车具有360度视角,克服了人类的视线障碍,且其反应能力迅速得多。同时又避免了因分心驾驶、疲劳驾驶、醉酒驾驶等人为因素造成的交通事故。尽管自动驾驶汽车在技术上证明其安全性,但事故和意外是不可能完全避免的。对于L3及以下的自动驾驶汽车发生的事故,依旧可以按照既有的责任规则分配法律责任,因为在这种情况下,人类依旧承担着驾驶员的身份,人工智能只是起到辅助作用。但是在L4及以上的自动驾驶汽车中,即使坐在驾驶员位置上的人也已经不再是司机的身份,更像是一个乘客,如果依旧要求其时刻准备应对路面情况,缺乏合理性,且给予了人更大的心理压力与责任负担,也不利于自动驾驶汽车的发展。以下所指自动驾驶汽车均为L4以上的自动驾驶汽车。在Arnold诉Reuther案中,横穿马路的Arnold作为受损害者,起诉驾驶自动驾驶汽车的Reuther没有采取措施避免事故发生。法院认为人无法拥有像智能机器人一样迅速作出反应。自动驾驶汽车发生的交通事故,要求一个普通人在极短时间内做出反应过于苛责。但是虽过错不能追究于人,但基于自动驾驶汽车与所有者之间拟制的雇佣关系,并不能因此完全免责。在我国,受雇人在履行职务期间,没有过错造成损害,由雇主承担责任;受雇人有过错,则与雇主承担连带赔偿责任。但自动驾驶汽车等智能机器人不能承担侵权责任,实际上是由雇主即所有者承担的责任。“在履行职务期间”雇主责任的归责原则中必不可少的条件,在智能机器人是否处于履行职务期间,笔者认为对于智能机器人的所有权人,“履行职务期间”是贯穿始终的。当自动驾驶汽车等智能机器人在流通时符合标准,不存在缺陷的情况下将事故责任归咎于设计者或生产者会在责任分配上让设计者或生产者负担过多的责任。因此在自动驾驶汽车等智能机器人不存在产品缺陷時,对于损害的赔偿,由所有者承担,应并综合考虑受损害者的过错,公平分配两者之间的法律责任。
  2.智能机器人的产品责任
  即使智能机器人能够自我学习产生独立意志,但最初设计的程序编码等依旧会对其行为产生影响。生产者必须保证流通的智能机器人符合标准。根据上文所说,产品责任只有当自动驾驶汽车等智能机器人存在产品缺陷时才会产生,当有缺陷的智能机器人造成他人损害时,以拟制的雇佣关系为基础的使用者在赔偿损失时,有权向生产者或者销售者进行追偿。   产品缺陷作为产品责任的核心构成要件,但是由于智能机器人的设计程序等对绝大多数人来说是陌生的,即使由设计者、生产者承担举证责任证明产品不存在缺陷,普通人也很难理解其运作方式。因此,一般认为侵权行为中智能机器人存在过错,就应推定产品有缺陷,除非有相反事实证据证明。
  四、智能机器人的知识产权认定及侵权
  人类曾一度认为只有具有情感的人类能够创作、欣赏文学、艺术,但人工智能正不断颠覆人们的认知。在文学艺术方面也有了智能机器人的影子,这显然是对现有知识产权法既有规范的冲击。微软开发的“小冰”就是一个典型代表,“小冰”创作的诗集《阳光失了玻璃窗》,完全由“小冰”自主创作,没有任何人为参与,那么该诗集的知识产权归谁所有呢。在日本,由智能机器人创作的作品,不仅可以与人类作品竞争评奖,还可以在市面上进行销售。法律设立知识产权的目的在于保护自然人的智力成果,激励人们积极创作发明。这同样适用智能机器人,如果不积极保护智能机器人创作的智力成果,同样会打击其创作的积极性。不可否定,智能机器人就是人类创造发明的成果,但是它创作的成果又该如何认定呢,是归智能机器人所有呢还是智能机器人主人所有。笔者认为虽然在还未赋予智能机器人法律主体地位,但是在基于客观事实以及客观需要的情况下②,一方面应承认其知识产权所有人的地位;另一方面,智能机器人能够创作是因为其能基于海量信息深度学习的结果,程序员只需设立好编码程序,大量输入知识和信息,因此,并不能排除智能机器人复制抄袭他人作品的可能性。这里就会出现智能机器人侵犯他人知识产权的情况,具体责任应由谁承担,也值得进一步探讨。
  五、应对智能机器人的挑战
  现如今正处于弱人工智能向高人工智能时代的过渡期,人工智能的高度发展会对现有伦理规范与法律秩序带来前所未有的冲击与挑战,面向未来,做到法律与时代的良性互动,我们应坚持基本以下原则。
  第一,人类优先原则。我们发展人工智能,发明智能机器人的根本目的,始终是更好地服务人类,不管智能機器人如何拥有独立意志,甚至拥有人的感情,它始终是没有生命,由编码设计而成的机器。因此,在我们不断向高人工智能发展时,应确立正确的价值目标导向。
  第二,公共利益优先原则[7]。科技在发展过程中,也会带来诸多弊端,并非所有的科学技术都会造福人类,如克隆人技术等等。同样在人工智能发展中,我们在积极利用智能机器人的同时,应把握基本的伦理原则、道德原则。正如恩格尔所说:“我们不要过分陶醉于我们对自然的胜利。对于每一次这样的胜利,自然界都报复了我们。每一次胜利,在第一步都确实取得了我们预期的结果,但是在第二步和第三步却有了完全不同的、出乎我们预料的影响,常常把第一次结果又取消了。”[8]
  第三,共生原则。“人类可以教机器,机器也可以教人类,这种平衡是必须的。两者之间的关系不是对抗性的而是可以共生的”[9]就像霍金所说:“人工智能的真正风险不是它的恶意,而是它的能力。一个超智能的人工智能在完成目标方面非常出色,如果这些目标与我们的目标不一致,我们就会陷入困境”[10]正确处理人工智能与人类之间的关系,在秉持公平正义的理念下,人工智能与人类方能和谐共处,共同发展。
  结语
转载注明来源:https://www.xzbu.com/4/view-15228322.htm