您好, 访客   登录/注册

人工智能发展带来的问题及其伦理思考

来源:用户上传      作者:吴戈

摘 要:人工智能在推动人类进步与社会发展的过程中扮演着越来越重要的角色。人工智能在改变人类生产生活方式的同时,也不可避免地带来许多潜在风险和社会问题。人工智能的发展可能造成责任主体不清晰、潜在风险因素增多、人的异化现象加剧、道德主体不明确等问题。保障人工智能的安全使用,实现人工智能的良性健康发展,需要确立人工智能发展的基本伦理原则,加强对人工智能发展的价值规范和道德引导,制定人工智能伦理的相关制度。

关键词:人工智能;伦理困境;责任;风险

中图分类号:B82 文献标识码:A

文章编号:1003-0751(2021)03-0093-03

1956年,在美国达特茅斯召开的人工智能会议标志着人工智能的诞生。人工智能及其应用极大地方便甚至改变了人类生活,但同时也引起了相应的争议。对可能或已经出现的难题进行伦理探讨,是题中应有之义。

一、人工智能的发展和运用给人类带来的影响

任何新技术的出现都是一把双刃劍,人工智能也是如此。近些年来,人工智能经历了多次摸索与尝试,取得了许多颠覆性成果。这些成果的运用给人类的生产生活带来便利的同时,也带来了一系列问题。

人工智能为人类生产生活提供了极大的便利。首先,人工智能改变了人类的工作、生活方式。从工厂流水线到智能家居,从网上购物到智能快递分拣,人工智能已经遍布于人类生活的每一个角落,很多领域不再需要人类从事枯燥的重复性劳动。其次,随着人工智能的大范围应用,带动了产业结构的转型升级,社会结构层次也面临相应调整。人工智能不仅可以代替人类从事重复单调的工作,而且可以胜任那些被默认为专属于人类的工作岗位,比如创作诗歌、弹琴作曲、绘画表演等创造性劳动。虽然它们的创作水平还非常有限,但是可以预见到未来人工智能可能带来的变革。

人工智能在为人类生产生活带来便利的同时,也带来了许多潜在风险和社会问题。首先,可能导致有些行业的工人失业。相比人类,人工智能机器在劳动效率、劳动成本等方面有明显优势,这导致有些可以被机器代替人类劳动的行业的工人面临或者即将面临失业。其次,会拉大贫富差距。人工智能的应用在创造极大物质财富的同时,必然会导致不公平竞争的出现,资源的分配将会失去秩序。再次,会越来越多地涉及隐私与信息安全问题。人工智能的行为边界与行为主体不明确,现阶段还缺少相关规制与手段保障人类隐私与国家信息安全。最后,可能导致人的异化。随着人工智能的不断发展进步,可以预见到人工智能威胁人类地位的那一天。人类可能会从创造和使用人工智能,到反过来处处受制于人工智能,人类的主体性地位面临严峻威胁。

二、人工智能发展带来的伦理困境

伴随着人工智能的大范围应用,相关伦理问题也引起了广泛重视与激烈讨论。

第一,责任主体不清晰。人工智能的发展应用必然会引发责任问题,人工智能系统的责任界定与追责问题是人类社会不可回避的问题。这之中最具代表性的就是自动驾驶问题。近年来引起普遍关注的“电车难题”,就是自动驾驶汽车本身难以破解的道德难题。假如行驶在路上的自动驾驶汽车遇到不守规矩的路人,人工智能是选择优先保护乘车人还是路人?自动驾驶颠覆了传统的人车关系,人工智能的介入使道德和法律规范的对象难以界定。假如无人驾驶汽车在行驶中发生交通事故,造成了生命财产损失,那么应该由谁来承担相应的法律责任呢?对人工智能又该如何做责任认定?从哲学层面来讲,责任的产生基于因果关系。行为导致结果,责任由行为主体承担,而人工智能的行为主体尚未明确,人工智能系统承担道德或者法律责任的能力也未有定论。这些问题的出现必然会引发社会恐慌和伦理困境。

第二,潜在风险因素增多。随着人工智能技术在不同领域的应用,其潜在风险也在不同层面显现出来。一是“无用阶级”与失业问题。赫拉利在《未来简史》中提出了关于“无用阶级”的若干断想:人工智能将替代人的劳动而把大多数人排挤出市场,使之沦为毫无价值的“无用阶级”,仅有少数精英升级为“超人类阶级”,人类甚至会因为超级智能的出现而失去控制权。①相比人类,人工智能机器在诸多工作中都有着无可比拟的优势,在竞争中被淘汰的“无用阶级”从失业到被边缘化,逐步失去生存的意义。劳动是人的本质属性,是人类实现自我价值、获取生活意义的重要手段。“无用阶级”失去劳动的机会,意味着失去了生活的意义。这将成为激化社会矛盾、破坏社会结构的重大潜在风险。二是社会不平等矛盾激化。近些年来,以人工智能为核心的技术系统开始全方位介入人类社会。然而,新技术的出现并没有改善原本的社会结构问题,反而存在着加剧社会矛盾的风险。人工智能技术系统的核心控制权与使用权只属于特权群体,这就会拉大不同群体之间的差距。地区差异、收入分配等社会问题已经相当严峻,如果人工智能技术不能平等惠及全人类,那么社会不平等的矛盾只会愈发激化,“数字鸿沟”已经是不争的事实。三是隐私权失去保障。隐私权是一项基本的人格权利。一般来说,隐私权是指自然人的个人信息与生活受到法律保护的权利。任何未经允许采集利用、泄露公开他人隐私的行为都属于侵犯个人隐私,将受到法律制裁。收集和分析数据是人工智能系统的基础。智能化时代一切都被数据化,个体的隐私信息成了数据挖掘的对象。随着人工智能多方位介入人类社会生活,个体隐私不可避免地受到威胁。人们在享受人工智能带来便利的同时,也失去了隐私权的保障。四是超级人工智能的失控风险。深度学习能力是人工智能的重要发展方向,未来甚至可能出现拥有自我意识的超级人工智能。具有自主意识的超级智能的出现,就意味着存在潜在的失控风险。人工智能自我学习和完善的过程是不可控的,自我意识的觉醒首先意味着自我保护。也就是说,人类极有可能被自己创造的人工智能所控制。约瑟夫·科恩、大卫·汉森指出:“制造出有自主意识、能采取自主行动的机器人,同时又使它们按照人类的是非标准行事是件极困难的事,甚至是不可能实现的。”②

第三,人的异化现象加剧。人工智能的成长正在影响“人”的本质属性。人工智能技术不仅在介入人类生活,甚至伴随着生物技术的发展开始介入人类身体。这种无机生命与有机生命的结合是创造性的,无疑也是极具风险性的。人机结合的出现开始模糊人类与人工智能的界限,加剧人的异化。库兹韦尔断言:“生物智能必将与我们正在创造的非生物智能紧密结合。”③当人类不再是纯粹的“人”,部分身体结构与人工智能结合或者替换时,该如何界定此种人机结合的产物?如果人工智能具备了人的本质属性,那么它能否享有人的尊严与权利?能否承担道德或是法律责任?人工智能技术的应用使得人的异化现象愈发严峻,亟须重新明确人的本质属性,规定人工智能的界限,建立处理人机关系的规范与准则。

第四,道德主体不明确。道德主体是指“具有自我意识,能够进行道德认知、能够进行推理并形成自我判断、能够进行道德选择与实施道德行为且承担道德责任的道德行为体”④。人工智能如果在未来真的具备了自我意识,那么应该以什么样的准则来判定它们的道德地位?对于这个问题的回答众说纷纭。“人类中心主义”的观点认为道德是人类独有的概念与特质,是人类精神世界的一種独特的约定俗成的默契,只有人类才能够享有道德主体地位。约翰·塞尔认为人工智能不具备成为道德主体的条件,“从没有一种纯形式的模型,足以凭借自身而产生意向性,因为形式特性自身不足以构成意向性,同时它们自身也没有因果能力,它们的能力不过是在例示过程中随着计算机的运行而产生下一步的形式体系”⑤。在未来人机共处的世界中,需要解决人工智能引发的道德伦理困境。

三、对人工智能发展带来困境的伦理思考

人工智能的高速发展必然会引发新的价值冲突、伦理问题。风险所在,往往也是人类自我拯救之所在。人工智能对人类社会提出了全面挑战,能否应对妥当,关系到人类的生存与命运,亟须对人工智能的发展和运用的过程进行伦理规制,以防患于未然。

第一,确立人工智能发展的基本伦理原则。面对人工智能的严峻挑战,不少组织与个人尝试性地提出了应对策略或伦理准则。这之中影响力较大的就是美国科幻作家阿西莫夫提出的机器人三定律:“机器人不得伤害人类个体或坐视人类个体受到伤害;在与第一定律不相冲突的情况下,机器人必须服从人类的命令;在不违反第一和第二定律的情况下,机器人有自我保护的义务。”⑥鉴于以上三原则明显还不够成熟,阿西莫夫后续又增加了一条根本性原则即机器人不得伤害或者侵犯人类。结合人工智能的进展,以人类的发展和利益为根本,可以在上述定律的基础上进一步提出以下几个原则。一是坚持以人为本。人工智能始终是人类文明的造物,为人类服务和满足社会生活的需要是其根本目标与存在价值,因此以人为本是约束人工智能发展的根本原则。盲目发展和因噎废食的选择都是不可取的。二是做到公开公正。当前的人工智能仍属于一种黑箱工作模式,其工作原理与能力界限对大众来说还是知识盲区,因此要确保公开原则落实到人工智能从研发设计到推广应用的每一个环节,要保证监管部门对整个过程的监督管理,及时处理来自大众的反馈信息。公正是人类社会的道德准则和法治管理的基本要求,也是保证人类合法权益和解决纠纷的基本准则。人工智能的研发和应用要严格贯彻公正原则,保证使用者公正地享受到同样的服务,以平等的姿态来迎接人工智能的技术革命。三是明确道德责任。人工智能的每一个环节,从研发设计到应用管理都离不开人类的身影,因此对所有参与设计、制造、管理的组织和个人都要加强约束和管理,明确各环节的道德责任,建立健全问责机制。工作人员要实事求是地根据人工智能的道德表现对其做出价值评估。

第二,加强对人工智能发展的价值规范和道德引导。人工智能如此突飞猛进地发展,未来不可避免会出现超出人类能力的表现,这就需要用价值来规范和约束,以道德来引导和修正,不能让人工智能为所欲为。一是用价值规范技术。人工智能的设计和应用应遵循人类的普适价值观,人工智能存在的价值在于服务人类社会,保障人类利益。马尔库塞强调,技术的合理性已经转化为政治的合理性,“技术拜物教”正在到处蔓延,“技术的解放力量——使事物工具化——转而成为解放的桎梏,即使人也工具化了”⑦。人工智能技术的研发应当严格禁止出现危害人类的设定或是漏洞,要将服务人类作为根本出发点。二是用道德引导发展。一项新技术的出现有可能引发新的价值冲突与社会矛盾,法律制度无法照顾到方方面面,这就需要道德规范来引导。算法不但是人工智能技术的基础,也将是未来人类社会生活不可或缺的重要部分。落实道德引导人工智能的发展就要从算法入手。将道德算法融入人工智能研发设计的算法之中,就是给人工智能系统的自主决策能力增加了技术保险和底线原则,确保其任何行为都会经过道德准则的审视与引导。

第三,制定人工智能合伦理发展的相关制度。一是研发、设计融入伦理思想。要确保人工智能的发展遵守为人类服务和保障人类的安全与利益的伦理准则,而不是颠倒主次的错位伦理;还要落实人工智能尊重人类主体地位,维护人类尊严的伦理要求。要将伦理观念融入人工智能的底层设计,让人工智能在实现其功能和价值的同时,时刻受到伦理准则的指导与约束。二是构建、完善相关法律规范。为了预防未来人工智能可能引发的矛盾与冲突,需要提前着手建立专门针对人工智能的法律法规。具体来说,针对人工智能将会造成的失业问题、隐私安全争论、知识产权纠纷等,要尽快着手完善补充相关领域的法律法规,让人工智能的发展之路有法可依、有条不紊。针对人工智能的相关法律法规是落实伦理重塑的基本保障,只有从法律层面明确责任、提供规范,才能让伦理约束切实可行。三是成立人工智能伦理委员会,监督人工智能的发展方向。人工智能的向前推进涉及多个学科领域的前沿问题和相关争论,需要成立相关组织机构搭建沟通桥梁,实现多个学科领域专家、工程师和官方权威人士对人工智能的发展方向及前沿问题进行及时研讨和协商。

历史经验告诉我们,人类自身存在不少缺陷和局限,走过不少弯路,犯过不少错误。面对人工智能技术,希望人类可以吸取过往经验教训,构建一个人机和谐相处的伦理道德体系,让全人类共享科技成果带来的便利,让人工智能更好地服务于人类社会。

注释

①巩永丹:《人工智能催生“无用阶级”吗?——赫拉利“无用阶级”断想引发的哲学审度》,《国外理论动态》2019年第6期。

②[美]约瑟夫·巴-科恩、大卫·汉森:《机器人革命——即将到来的机器人时代》,潘俊译,机械工业出版社,2015年,第235页。

③[美]库兹韦尔:《奇点临近》,李庆诚等译,机械工业出版社,2011年,前言。

④闫坤如:《人工智能机器具有道德主体地位吗》,《自然辩证法研究》2019年第5期。

⑤Searle JR. Minds, Brains, and Programs.Behavioral & Brain Sciences, 1980, Vol.3, No.3, pp.417-457.

⑥[美]艾薩克·阿莫西夫:《银河帝国8:我,“机器人”》,叶李华译,江苏文艺出版社,2013年,第13页。

⑦[美]赫伯特·马尔库塞:《单向度的人——发达工业社会意识形态研究》,刘继译,上海译文出版社,1989年,第143页。

责任编辑:白 杨

Problems Brought About by the Development of Artificial Intelligence and

the Ethical Considerations

Wu Ge

Abstract:Artificial intelligence is playing an increasingly important role in the process of promoting human progress and social development. While artificial intelligence changes the way of human production and life, it also inevitably brings about many potential risks and social problems. The development of artificial intelligence may result in the lack of clarity of responsibility subjects, increase potential risk factors, intensify alienation of people and unclear ethical subjects. To ensure the safe use of AI and to achieve the healthy development of AI, it is necessary to establish the basic ethical principles for the development of AI, strengthen the value regulation and moral guidance for the development of AI, and formulate a related system for the ethics of AI.

Key words:artificial intelligence; ethical dilemma; responsibility; risk

收稿日期:2020-06-23

作者简介:吴戈,男,吉林大学哲学社会学院博士生(长春 130001)。


转载注明来源:https://www.xzbu.com/4/view-15416692.htm

相关文章