您好, 访客   登录/注册

人工智能伦理风险及其对策

来源:用户上传      作者:

  摘要:随着人类科技的提高,人工智能在现代经济社会中发挥着越来越重要的作用。在某种程度上来说,人工智能的发展可以大幅度提高人们的生活质量,促进社会发展,甚至可以推動人类社会的变革。人工智能的不断发展也意味着随之而来的问题,其中在社会中引起最大争议的就是人工智能可能带来的伦理问题,本文列举了人工智能发展主要面临的八种伦理风险情形。根据研究人工智能可能出现的伦理风险,从而提出了人工智能伦理风险的应对措施,以促进人工智能技术的健康发展。
  关键词:人工智能;伦理;风险
  中图分类号:TP311    文献标识码:A
  文章编号:1009-3044(2019)18-0221-02
  1 引言
  从2001年的斯皮尔伯格所制作的《人工智能》到如今的《阿丽塔》,都代表一种趋势——人工智能受到了全世界人广泛的关注,从电影中我们也可以窥探出人工智能技术的兴起和成熟,作为一个紧随世界潮流,全面参与全球化经济的国家,我国对于人工智能的研究当然不甘落后。国务院于2016年7月在北京隆重发布《“十三五”国家社会发展科技创新规划》,自此开始人工智能正式被纳入国家规划中。[1]紧接着在2017年3月,政府工作报告中首次提到人工智能技术。从种种迹象中可以看出,国家对人工智能越来越重视,也将投入更多的资源给予人工智能,因此在未来,我国的人工智能产业必将走入一个大的跨越式发展阶段。但科技的发展总是伴随着不确定的因素,因此我们对待人工智能技术也必须抱有理性而谨慎的态度去观察与研究。政府及相关部门应该尽快出台一套科学的法律法规来规范人工智能伦理风险和过程监管。人工智能这项新技术的出现必然会给我们的生活提供很多便利之处,但这也意味伦理、法律和安全问题也接踵而至,因此目前人工智能对社会发展的影响和挑战已经逐渐成为我国哲学社会科学研究不容刻缓的研究话题。
  2 人工智能发展主要面临的伦理风险
  2.1 道德风险
  未来,随着人工智能道德自主性的突破,人工智能的道德观念将从完全由人类设计转变为完全由机器决定。如何赋予人工智能道德判断能力是一个重要的现实问题。将人类道德写入人工智能程序或许是解决问题的方法。早期,人工智能的道德判断行为是可控的。随着技术的进一步发展,人工智能的道德判断行为可以完全独立。穆尔教授认为,这种情况的标准是,人工智能程序具有成年人的平均道德水平。[2]在这个阶段,人工智能会做出自己的行动策略和道德选择,它的行为不会被人类控制。这将对现有的社会秩序和道德规范产生重大影响。为了避免这种情况,人工智能的道德自主性应该被限制在一个合理的范围内,使其行为能够被人类所期待。
  2.2 失业风险
  当人工智能取代一个又一个产业时,社会财富将逐渐集中在拥有先进人工智能技术的发达国家或科技巨头身上。而发展中国家的劳动密集型产业往往被人工智能所取代,这些国家劳动力成本较低的优势将不复存在,就业受到严重影响。[3]人工智能的应用在很大程度上对这些地区的就业稳定提出了挑战。如何让每个人都从人工智能创造的财富中受益,防止贫富差距扩大,这是我们需要思考的问题。
  2.3 隐私风险
  随着人工智能的发展,大数据的运用将无处不在。通过深度学习和大数据算法,人工智能可以更有效地解决问题,但这将涉及隐私问题。许多重要的个人隐私信息,如收入,家庭状况和健康等,可以实时收集和保存。通过数据挖掘技术,数据控制器可以从大量不完整或模糊的数据中提取有用的个人信息。这样,人类就失去了对自己隐私的控制,甚至一些私人信息也被实时监控了很长一段时间。因此,在人工智能发展的过程中,如何加强对隐私的保护成为一个必须关注的问题。
  2.4 算法偏见风险
  虽然人工智能的伦理判断本质上是算法,但在现实生活中可能会存在主观偏见。这种偏见有多个方面的因素,可能是数据源的输入也可能是程序员的世界观和价值观。如果算法中已经存在偏差,经过深度学习,可以进一步加强算法中的偏差。例如,在车祸现场,中国人和外国人都受了重伤。人工智能机器应该先拯救哪一个?是否存在种族、意识形态和算法上的偏见?这表明,机器处理各种类型数据时,可能会存在偏差。当然,与人类决策相比,人工智能的决策能排除人类情感因素而做出更为客观理性的决策。但是,我们更要注意的是一旦人工智能算法出现偏见问题,那么就会形成广泛的影响。因此,在算法中去除社会共识和法律规范偏见的工作任重而道远。
  2.5 人身安全风险
  人工智能机器对任务的理解可能存在偏差,这将导致人工智能机器根据错误的理解来完成任务。比如,我们设置人工智能机器的任务是让主人微笑,其可能通过饶痒痒的方式来实现。当人工智能机器将在特定环境中学习到的行动策略应用到新环境中时,可能会产生安全风险。又比如,机器人将成人牛奶给婴儿喝等生活问题。人工智能技术还可以用来开发武器。霍金在2015年,就公开表示担心人工智能技术迟早会强大到无意中杀死人类的地步。[4]
  2.6 权利风险
  从某种意义而言,人工智能拥有一定的思考能力以及学习能力,因此如果我们仅仅将人工智能看作工具或许有失偏颇。作为未来社会将与我们朝夕相伴的智能人,人工智能在一定程度上也需要获得相关法律法规的保护,在法律上给予人工智能道德地位以及相应的权利,并严格禁止随意处置、虐待与遗弃人工智能机器人的行为存在,使人工智能在未来社会的权益受到合理的保障。[5]
  2.7 媒介风险
  人工智能在给新闻媒介便利的同时,媒介风险也日益突出。比如,大型商业公司以商业利益为宗旨,其研究和开发的人工智能媒介易受公司营利的自然倾向。此外,像微软、谷歌、阿里巴巴、百度等成熟的公司都有自己独特的价值追求和企业文化,有意识或无意识地影响着基于人工智能的媒介发展。比如,谷歌的媒介算法偏向“新闻价值”的核心地位,而脸书的媒介算法偏向“家庭和朋友”的核心关系,有着明显的社交风格。[6]   2.8 “奇点”风险
  几年前,美国未来学家库兹韦尔根据其所提出的加速回报定理提出了著名的“奇点理论”。也正是在这个理论中他提出了一个预测——纯人类文明将终止于2045年。或许我们会觉得这是无稽之谈,但库兹韦尔却提出科技的发展迅速,甚至会导致“失控效应”。[7]但这也意味着人类的智慧将逐渐衰退,随着科技的发展,人类只需要在网上搜索就能获得知识,从而失去了深入探索知识的能力与自主性,人类对机器的依赖程度越来越高,而人工智能奇点却足以让机器人完全独立自主地进行升级,因此人工智能在未来或许将拥有改变人类文明的能力。这也意味着我们必须时刻关注人工智能的发展情况,防止奇点的失控,从而影响人类与人工智能之间的关系混乱,断绝人工智能奴役甚至消灭人类的可能性。综上所述,对于在未来如何适应和引导人类与人工智能共存已经成了值得我们着重研究的问题。
  3 人工智能伦理风险的应对措施
  3.1 健全规范的法律法规
  之所以人工智能会引发这么多的伦理风险,一切的根源都在于目前社会与政府对人工智能的法律法规的空缺。“没有规矩,不成方圆”,政府应该制定相关的法律法规来规范人工智能的应用。积极承担人工智能伦理法律法规的责任,引导和推动人工智能走上理性科学的正确轨道。文中提到的八大伦理风险造成的人工智能的负面社会影响,时刻提醒我们需要开发更完善,符合新时代的法律法规,具体到人工智能的作品界定、责任和限制使用做出更详细明确的阐释,同时可以根据相关法律查处违法行为。[8]
  3.2 加强伦理制度建设
  对于人工智能引发的伦理问题,伦理制度的建设是不可或缺的,将人工智能研究与伦理制度建设相结合是解决人工智能伦理问题的有效途径。伦理制度建设至少应包括设计伦理和应用规范伦理。设计伦理应确保人工智能产品的安全性,应用伦理则强调人工智能应用过程中的安全性[9]。当人工智能没有道德主体时,人工智能的使用者就是一种道德主体。因此,有必要为人工智能用户制定合理的伦理制度规范。尤其应该禁止人工智能被用于可能对人类和整个社会造成危害的领域。此外,人工智能用户还应注重自身伦理责任感的培養,将伦理制度规范内化为自己的主体信念和责任意识。
  3.3 人与人工智能的和谐发展
  随着人工智能的不断发展,人本身与人工智能的关系已经越发密切,已经逐渐成了相互融合的发展模式,也正是因为这种模式的存在,对我们人类自古以来所坚持的伦理产生了巨大的挑战。人工智能与人类相互融合代表着我们产生了新的和谐人机关系,但不论人类智能与人类融合的何其紧密,我们在对待人工智能技术时都必须始终坚持以人为本的原则,时刻牢记人工智能只是一种工具,归其根本还是用来推动人自身的全面发展的工具。因此我们应该树立正确的科学观和发展观,利用合适的渠道普及人工智能知识,让公众正确认识人工智能,意识到人工智能技术只是计算机科学的分支的同时也要明确在我们使用人工智能技术的时候必须把握分寸,尽管目前人工智能技术发展尚存在于模仿人类行为的阶段上,但我们必须理智对待人工智能,防止自身被人工智能所束缚和控制,时刻保持我们作为人类的自主性和尊严。作为科研人员而言,在研究过程中应该适当增加伦理关怀和人文精神。作为我们普通人,我们在面对关于人工智能的危险言论时,切记不要盲目跟风,综合考虑各类因素之后做出准确的判断。
  3.4 加强监管与持续性改进
  人工智能引发的一些伦理问题与该领域的监管松懈或空白密切相关。人工智能的价值就是为人类服务,因此人类在使用过程中必然会意识到人工智能所存在的问题与潜在风险。通过消费者的反馈,人工智能才能得以快速的完善与发展。同时通过科学家和伦理学家的专业知识进行人工智能现存问题的分析也是人工智能发展和监督的重要推力,以专业角度理智看待人工智能,从而推测出人工智能发展趋势,提出有利于人工智能可持续发展的改进措施。
  4 结论
  人工智能已被提升到国家战略层面。人工智能的迅猛发展需要从法律法规、伦理制度、人与人工智能的关系、监管等方面进行规制。只有这样,才能在可控范围内降低人工智能伦理的风险,才能更好地为人类服务。
  参考文献:
  [1] 马治国,徐济宽.人工智能发展的潜在风险及法律防控监管[J].北京工业大学学报(社会科学版),2018,18(06):65-71.
  [2] 周程,和鸿鹏.人工智能带来的伦理与社会挑战[J].人民论坛,2018(2):26-28.
  [3] 陈伟光,袁静.人工智能全球治理:基于治理主体、结构和机制的分析[J].国际观察,2018(4):23-37.
  [4] 张立文.和合伦理道德论——中华传统道德精髓与人工智能[J].社会科学战线,2018(8):34-48+281.
  [5] 刘宪权.人工智能时代机器人行为道德伦理与刑法规制[J].比较法研究,2018(4):40-54.
  [6] 赵瑜.人工智能时代的新闻伦理:行动与治理[J].人民论坛·学术前沿,2018(24):6-15.
  [7] 雷·库兹韦尔.奇点临近 [M].北京:机械工业出版社,2011
  [8] 刘茂锦.人工智能用于新闻业的法律、伦理问题及对策[J].青年记者,2018(6):96-97.
  [9] 王军.人工智能的伦理问题:挑战与应对[J].伦理学研究,2018(4):79-83.
  【通联编辑:梁书】
转载注明来源:https://www.xzbu.com/8/view-14950197.htm