您好, 访客   登录/注册

人工智能侵权的法经济学分析

来源:用户上传      作者:

  摘 要:智能机器人是人工智能时代的科技“宠儿”,无论是国际赛事PK,还是深度学习,抑或是数据挖掘,智能机器人作为人工智能的代言人,总会占据各大媒体头条,活跃于法学界和经济学界各大讨论会中。为什么智能机器人会如此受到推崇?难道大家忘记了1978年日本一家工厂的切割机器人突然抓住并切割工人的事件?1989年人工智能机器人落败于苏联国际象棋冠军后释放电流致冠军死亡的骇人听闻?或许大家忘记的是不成熟的人工智能技术,但我们走过了人工智能元年,脑中必须清醒地认识到人工智能侵权背后的社会经济原因。本文从法经济学的角度一步步探索智能机器人侵权的社会成本问题以及从经济学角度提出相关激励机制。
  关键词:智能机器人;法经济学;社会成本;激励机制
  中图分类号:TP18+D016.98文献标识码:A文章编号:1008-4428(2019)07-0159-02
  一、 智能机器人的法律主体地位:一种不具备法律人格的人工智能
  智能机器人作为人工智能的载体,在各行各业崭露头角。而这一切要归功于图灵于1950年发表的《计算机器与智能》。在该书中,图灵提出了机器思维即机器可以和人类一样拥有思维。该观点极大地促进了当时智能机器行业的发展。与此同时,他还提出了著名的图灵测试,从而奠定了人工智能发展的实践基础。然而,时隔69年之余,伴随而来的却是人工智能是否享有法律主体资格等争议问题。
  早期人工智能的设计理念是符号主义即Symbolism,该主义有两个理论前提:“其一,人类富有智能的处理各项实务的能力,得归功于人类理性思维的能力;其二,人类理性思维事务的能力,等同自动处理各种物理符号的内部心理能力。”该理论中着重提到了人类理性,众所周知,现代法律主体是理性法律主体,而符号主义设计理念下的人工智能的工作机制是在既定的一套符号系统里,由系统来识别所需要解决的问题,并通过符号的选取、排列、拆分来建立新的符号链条,进而在不断排除筛选后最终得出一个最优解。上述运算过程涵盖了人类编写的程序代码以及Computer Function。其体现的理性是人的理性,而非人工智能的理性。
  另一种设计理念是联结主义即Connectionism,该主义由于将智能视为大脑中神经元相互联结并对刺激大脑的信息进行传递。在该过程中形成了视觉、听觉、嗅觉等感觉。联结主义设计理念下的人工智能含有人工神经网络系统,人类事先向该系统中输入控制和改变神经元联结的算法,进而刺激该系统,使得神经元进行不同联结,传递不同信息。该过程类似人脑运行机理,因此便具有了仿生学意义上的思维传导。但该仿生学联结主义设计理念下的人工智能毕竟只是具有仿生的功能,并不能像民法中的“理性人”可以权衡利弊,做出自己的选择。此外,作为私法中法律主体的自然人指的是法律层面的人而非生物学上的人。如果说生物学意义上的人指的是人类这个生物种群概念,那么法律层面上的人则是说在生物学的人上增添了“人格”的特征。人格又称主体资格,是法律赋予那些具备一定条件的“适格者”,使其成为法律上的“人”,进而成为法律关系中的权力享有者、义务和责任的承担者。目前,无论是符号主义设计理念还是联结主义设计理念下的人工智能都有高度自主的特征,并有不断脱离人控制的趋势。似乎人工智能已经具有了精神和意识,然而,正如笔者前面提到的,无论是精神还是意识,都是人类理性的范畴。康德在“人是目的”的哲学理论中提到人之所以具有人格、可以成为适格的主体,就在于人具有理性。而理性是人类与其他生物的根本区别,同时理性又是法律人格的哲学基础。人工智能拥有类似人的智能,但却未发展出人类理性,不可能凭借“理性论”取得类似自然人的主体地位,当然也就不具有法律人格。
  二、 智能机器人侵权的社会成本问题
  从法学角度探讨智能机器人,可以得出具有仿生学意义的人工智能不具备法律人格。因此,也就进一步得出智能机器人不能作为一般意义上的法律主体。但在解决人工智能侵权方面,运用法学原理去探讨,也许会陷入人工智能法律主体资格循环论证的僵局。因为,当出现人工智能侵权时,赋予其主体地位,似乎更有利于问题的解决。在此,笔者从法经济学的角度,以社会成本为切入点,来讨论智能机器人侵权时的解决思路。
  传统法学理念中,侵权法的第一任务是补偿事故中受害者的损失。这确实是法院对侵权案件判决宣告的重要任务,但并不是侵权法规则设计所关注的中心问题。侵权法经济分析所围绕的一个中心论题就是如何制定和设计侵权法规则,才能最小化事故的社会成本,才能使风险事故的潜在伤害者和受害者有适当的激励,并将他们活动的外部性内化来避免事故的发生,即“预防”优于“补偿”。 在解决智能机器人侵权问题的过程中,我们首要关注的不是如何限制侵权人的行为,因为我们正在分析的问题具有交互性, 即避免对侵权人的损害将会使被侵权人遭受损害,必须决定的真正问题是:允许侵权人损害被侵权人,还是被侵权人損害侵权人?而解决问题的关键在于避免较重的损害。罗纳德·科斯曾经在《社会成本问题》一书中通过分析铁路公司和农夫之间关于火车引擎火花问题解决的博弈,提出了著名的“科斯定理 ”。该定理有助于分析智能机器人侵权的内在机理,因为该定理提出损害问题的根本在于对稀缺性资源的竞争性使用,所谓的损害是由双方对稀缺资源的共同利用引起的。此外,科斯还提出了定价制度。在假定定价制度运行不需要成本的前提下,科斯将定价制度分为负有责任的定价制度和不负责任的定价制度。虽然,现实世界不存在交易成本为零的情形,但以交易成本作为开启解决问题的“钥匙”,往往会得出不错的结果。在交易成本大于零的时候,判决人工智能损害赔偿(以下简称:A)和判决不负责任(以下简称:B)的经济效果是不一样的。在考虑市场交易成本的时候,若交易成本过高,单纯地依靠市场是无法实现权利最优配置的,此时,法律或政府便成了次优的解决方案。在解决人工智能侵权方面,交易成本为零的时候,判决A和B的经济结果是一样的。而在交易成本大于零的情况下,A和B的经济结果便有差别。在同一场所,如果智能机器人侵权所能带来的经济效益足够高,那么我们就判决维护智能领域的经济效益。因为,侵权所带来的损害可以通过谈判和私下协商的方式来解决。科斯意在告诉世人,法律要为社会经济高效率发展服务,才有利于资源优化配置和生产要素的优化组合,以此节约交易成本从而提高效率。   三、 智能机器人侵权责任的预防激励机制
  一个有效率的法律制度的最根本性质在于它能够提供一组有关权利、责任和义务的规则,能为一切创造性和生产性活动提供最广阔的空间。 每个人都不是想方设法通过占别人的便宜来增进自己的利益,而是想方设法通过增加生产并由此实现自己的利益最大化。博登海默指出:“法律乃刺激人们奋发向上的一个有力手段。法律虽然不可能直接下命令使某人成为一个发明家或创造出优秀的音乐作品,但它却可以为人们发挥创造才能提供必要的条件。” 侵权责任法和经济学在人工智能时代恰好担得起这个责任和重担。根据“科斯定理”,侵权法之所以要采取法定规则来确定和分配事故发生的责任成本,使潜在的伤害者与受害者产生适当的激励,是因为侵权行为与契约行为的差异在于无法通过事先的约定来确定和分配各方的责任,在交易成本、信息成本、讨价还价成本过高的情况下,法律的干预和规制在资源的有效分配中显得尤为重要。
  在智能机器人侵权案件发生时,首先要确定侵权责任规则,以使责任事故产生最优的预防激励。一般来说,当决策者内化其自身行为的边际成本和边际收益时,激励机制才是有效的。此时,就需要将事故类型化并抽象出预防模式即双边预防和单边预防。在潜在伤害者单边预防的情形下需要采取严格责任规制,即不管责任侵权方有无过错,都要对受害者的损失进行补偿;在双边预防的情形下采取过失责任原则,即通过确定适当的预防水准以及判定各方是否采取适当的预防措施来判断责任的有无。不过,在这个过程中要考虑到私人激励与社会激励的分歧。因为当受害者受到伤害时,他需要在比较私人利益即预期判决和他的法律成本的基础上,做出是否提起诉讼的决策,也即是否使用责任制度的决策。因为,私人决定的法律使用量和社会最优使用量之间可能存在分歧,此时,就有必要进行社会干预,如果诉讼导致的社会成本超过了社会收益,诉讼就会出现过量问题,减少对法律制度的使用就显得十分有必要。如果智能机器人侵权诉讼数量不足,国家可以考虑对诉讼费用提供补偿或其他对社会有益的鼓励诉讼措施。比如,一些考虑到成本因素之后,对于私人而言就不值得追究的轻微损害。由于受害者随时准备提起诉讼的威慑效应,对社会而言却是值得提起诉讼的。为了实现社会目的,社会可以为这种诉讼提供法律服务或支持诉讼。
  参考文献:
  [1]赵磊,赵宇.论人工智能的法律主体地位[DB/OL].[2018-11-23].http://www.aisixiang.com/data/113553.html.
  [2]徐英瑾.心智、語言和机器——维特根斯坦和人工智能科学的对话[M].北京:人民出版社,2013.
  [3]龙文懋.人工智能法律主体地位的法哲学思考[J].西北政法大学学报,2018(5).
  [4]刘洪华.论人工智能的法律地位[J].政治与法律,2019(1).
  [5]卡尔·拉伦茨.德国民法通论(上册)[M].王晓晔,等译.北京:法律出版社,2003.
  作者简介:
  王飞翔,男,河南商丘人,河南财经政法大学民商法研究生,研究方向:民商法学。
转载注明来源:https://www.xzbu.com/3/view-14996386.htm