人工智能伦理规范是什么类型的规范?

上传人:杨*** 文档编号:300788303 上传时间:2022-05-30 格式:DOCX 页数:20 大小:53.03KB
返回 下载 相关 举报
人工智能伦理规范是什么类型的规范?_第1页
第1页 / 共20页
人工智能伦理规范是什么类型的规范?_第2页
第2页 / 共20页
人工智能伦理规范是什么类型的规范?_第3页
第3页 / 共20页
人工智能伦理规范是什么类型的规范?_第4页
第4页 / 共20页
亲,该文档总共20页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《人工智能伦理规范是什么类型的规范?》由会员分享,可在线阅读,更多相关《人工智能伦理规范是什么类型的规范?(20页珍藏版)》请在金锄头文库上搜索。

1、 人工智能伦理规范是什么类型的规范? 吴童立摘 要:人工智能伦理规范的制定是人工智能研究领域的重大议题,大多数人都遵循一种“理想规则主义”的设计思路。然而,这种思路在理论上无法成立,在实践中会带来更大风险,其深层预设是看待人工智能的工具主义态度。实际上,基于因果推理模型的人工智能具有真正意义上的自主性,有充分理由被赋予道德主体的资格。因此,一种关系性规则的设置才能更好地处理人工智能的伦理问题,这要求它们能够为自己的行为负责,其重要条件就是具有一定程度的产权。Key:人工智能道德主体;儒家伦理规范;理想规则主义;关系性规则一、引言长久以来,机器作为工具的一种被视为人类能力和心智的延伸。自新千年开

2、始,随着大数据、深度学习、仿生技术、人工知觉等领域的快速发展和不断交叉融合,具有更强自主能力的人工智能产品被不断研发出来并获得广泛应用。无论是具有一定“判断能力”的无人机,还是能够机智地回答问题的Siri,已经真正进入到人们的视野和生活中。一个共识正在形成:人类终将制造出外形与行为与我们相似人工智能,并与它们在同一个世界中共处。这个共识自然地引发了一种担忧:人工智能会给人类社会带来何种风险?这种风险是否可以被人类预测并控制?为了控制这种风险应该对人工智能的研发和使用制定什么样的规范?政府和学术团体已经行动起来,2016年欧洲议会发布的关于人工智能和机器人的报告,表达了其对于机器人将给人类带来的

3、风险的关注;联合国教科文组织与世界科学知识与技术伦理委员会于2016年的报告,讨论了人工智能技术进步带来的社会与伦理问题;我国在2017年7月发布了新一代人工智能发展规划;耶鲁大学于2017年组织了“We Robot”跨学科会议。但分歧依然广泛存在。一种的声音把人工智能视为人类的潜在挑战者,认为一旦人工智能具有了与人类相当甚至超过人类的智能水平,那么它们將成为代替人类的新物种和人类历史的终结者,人类应该首要地考虑这种存在论意义上的风险。另一种声音则把人工智能当作一种具有更高自动化程度的机器,认为从弱人工智能到强人工智能的跨越还很遥远甚至永远无法实现,我们更应该关注的是对人工智能算法、标准和使用

4、进行规范,以避免产生一系列具体的技术、伦理、法律风险。这种分歧形成了一种潜在的非此即彼的预设:人工智能要么类似于超人,要么类似于机器。这个预设又牵涉到一些更为古老和根深蒂固的观念:人类的主体性似乎与一个包含着诸如意识、自由意志、情感、善恶识别能力等组成的概念集合联系在一起。我们将指出,尤其是在讨论有关人工智能的伦理议题时,这些预设是有害的。不假思索地接受它们,会让我们错失一些重要的思考维度。本文试图表明,并没有充分理由把主体性视为是先天地属人的,即使是弱人工智能也应当被赋予至少一定程度的道德主体资格,以某种较为对等的方式与人类在同一个社会中共处;从一种关系论角度考虑人工智能的伦理规范,在理论上

5、可以得到有效的辩护,在实践上亦有助于更好地处理人工智能引发的伦理、法律和社会问题。刘纪璐教授的文章儒家机器人伦理(以下简称“刘文”)代表了一种与笔者大相径庭的主流思路,其论述逻辑严谨而富于洞见,通过与它的对话可以更清晰地呈现出我们的问题意识。因此,本文的讨论将从对刘文的分析开始。二、“儒家机器人”不能做什么刘文试图回答两个彼此相关的问题。第一,与人工智能伦理的主流理论,即阿西莫夫三定律、康德式道义论、功利主义相比,为何儒家伦理原则更好且更适合作为机器人的伦理规范?第二,如何对儒家伦理法则进行诠释并使之成为一种可以被算法化的规则?作者首先指出了三种主流理论的困难。阿西莫夫机器人定律由于只是宽泛地

6、给出了不伤害、服从命令、自我保护等原则,而没有给出更丰富的要素以对不同的道德情境进行辨识、区分和比较,故无法适用于很多道德选择的情况。尤其是在伤害无法避免的情形如电车难题中,机器人将陷于进退两难无法行动的困境。康德道义论应用于机器人,会遭遇一个元问题层面的悖论:康德理论要求行动者具有自发的能动性以成为“目的王国”的公民,但机器人本质上是人造的工具,这本身就违背了康德原则。功利主义的首要问题是人们不愿意把让机器人把这个原则应用于自己,同时,这个原则在有些情形中显得过于激进的以至于对个人的权利造成侵害。基于这些分析,作者进一步提出了儒家机器人的原则:“忠”被诠释为机器人对自身功能性角色的恪守,“恕

7、”对应着一种对负面价值和负面结果的禁止行动的“消极黄金法则”,“仁”则体现为帮助人类行善并禁止帮助人类作恶的道德命令。这种儒家式机器人会积极地完成自己角色设定内的功能,在此设定之外则通常选择不进行干涉,同时能够保证不作恶和不协助作恶。作者指出,它在道德决策中的表现会优于其他几种主流模型,例如,在电车情形和天桥情形中能够以绝大多数人认同的方式行动,在自动驾驶情形中则选择优先保护驾驶员。可以清楚地看到,刘纪璐教授的讨论主要针对只有局部智能与人类相当的弱人工智能,他关注的是如何设计它们的行动准则以使其更好地服务人类且不造成意外的风险。这种关注隐含了一种我称之为“理想规则主义”的预设。刘文中引用的一段

8、话概括了这个预设:“机器伦理的终极目标是要创造一种机器,它自己遵循一套理想的道德准则;也就是说,机器是由这个原则或这些原则决定的,它决定了可能采取的行动”。这种观点可以分解为两个底层主张:第一,可以设计出一种通用的、普适的理性规则体系来处理所有道德情境;第二,只要严格地使用这种规则体系,就可以使得机器人避免道德风险。与之相对应,我们可以提出两个问题:第一,存在一种普适的人工智能道德规则体系吗?第二,即使这种体系在某种意义上可以被创造出来,它是处理人工智能道德问题的最佳方式吗?我们对两个问题的回答都是否定的。刘文的立论主要基于两个广受关注的道德思想实验,即电车难题和自动驾驶选择难题。已经有不少研

9、究指出了,这些思想实验由于过于抽象和简化地设置了道德情境,可能导致忽略一些重要的因素。以人工驾驶为例,MIT媒体实验室制作的“道德机器”网站,就列出了13种可能场景供受访者进行考虑,其中涉及司机和路人的性别、年龄段、职业、社会身份或地位、是否特殊人群(如孕妇)、是否遵守交通规则、物种(人或动物)等要素。孙保学指出,自动驾驶难题中涉及的价值不仅是双方的生命,而是包含着多元价值维度,因此除了一些普遍原则,还应该依据情境引入特殊的价值要素(如违反交通规则者承担更多责任,孕妇和儿童享有优先权等)作为重要参量。如果把视角延伸到这种更丰富语境组成案例系列中,儒家机器人的“优先保护司机”的功能主义法则就显得

10、过于单薄和缺乏说服力。电车难题的两种情形常常被视为分别属于功利主义和道义论的应用场景,但细究起来,其中要考虑的要素也很多,尤其是,如何对这些要素进行界定以判定它们适用于何种原则,也依然是充满争议的。例如,如果天桥上的胖子不算涉事者故不应该被牵扯进来,那么电车支线轨道上的那个人应被算作涉事者吗?如果推胖子被视为制造了一个新的威胁因而算作主动伤害,电车转向支线轨道算不算主动伤害?根据什么原则来判定“把人当作工具”,又根据什么原则来判定“副作用”?对这些要素的考察并不是无关紧要的。情境的轻微变化就会导致对要素的不同判定。在汤姆森设计的环轨情形中,电车的支线与主线在另一端汇合为一个环轨,根据他的解释,

11、杀死支线上的一个人就不再仅仅是避开5人产生的副作用,而成为救5人的必要手段如果電车不是因为撞到那个人而停下来,它依然会通过环轨回头撞死5人。不难看到,由于没有考虑这些要素及其情境依赖的不同排序方式,儒家机器人不能有效区分电车情形和环轨情形。刘纪璐教授也许会申辩说,之所以不考虑某些要素,是因为这些要素是对人类不可见的或无暇顾及的,例如,司机既无法知道路人的身份也来不及反应和判断。但是,这种能力缺乏对人工智能而言很可能不成立。未来社会完全有可能对每个个体的数据进行电子标记,人工智能可以在极短时间内进行预先识别并据此做出判断。刘纪璐教授可以进一步声称,对于一个具有特定功能的机器人,其功能范围之外的要

12、素对于道德判断而言是无关的。但是,一个基于功能的行动所涉及的范围并不总是能够被泾渭分明地界定出来。如果说自动驾驶机器人的功能包含着最小伤害,那么这个最小伤害优先适用于司机还是路人,则很难说先天地包含在功能的定义中。另一方面,如果即将撞到的路人是一位军政要人,其突然死亡可能导致更大的混乱和伤亡,就需要更加谨慎地考虑“一视同仁”的原则是否适用。这些理由都不是决定性的。刘纪璐教授可以综合考量多种因素在不同情境中的取舍和配比,通过添加次级法则对他的儒家机器人进行调整,其规则体系在原则上仍然可以得到辩护。我们必须对理想规则主义给予致命一击。这个论证的最严格的版本是哥德尔给出的。上世纪初,他曾判决性地证明

13、了不完备性定理,即在任何一个丰富到足以包含算数的形式系统中,系统的一致性都不可能在这个系统自身之中得到证明。这种特性也可以延伸到语义系统中:“在语言A的内部不可能给出一个对于它自身的完全的认识论描述,因为A的句子的真理概念不能在A的内部得到定义。这个定理乃是包含算术的形式系统中不可判定命题的存在的真正根据。”换言之,一个形式系统或语义系统为真的条件是,其中存在着某种不确定性。至于道德的理想规则系统,尽管与这种形式系统不尽相同,但其真依然部分地依赖于系统的一致性,故无法避免地具有某种不可判定性。另一方面,道德规则系统的问题甚至更复杂,它还具有另一重真值来源,即人类的道德直觉和理性辩护。这些道德直

14、觉丰富多元,而且时常彼此冲突或不一致。在电车难题中,这种冲突体现为,哲学家对选取哪种理由为主流的选择进行辩护产生了严重的分歧。在自动驾驶难题中,直觉的不一致表现地更为明显:人们普遍认为配备功利主义算法的自动驾驶汽车最符合道德,但并不想购买这种汽车。不能把这种现象简单地视为私心与道德感的斗争,或是源于某种类似意志薄弱的不彻底性,更恰当的方式是把它理解为两种关于正确性的不同标准的冲突。赵汀阳因此评论道:“严格地说,这是人的悖论,不是机器的悖论。机器只是遵循规则而已,问题在于我们不知道应该为自动汽车选定什么样的规则。”面对纷繁复杂的情境和彼此冲突的直觉,人类本能地想要找到一种简单的、标准的规则体系。

15、但是只要观察一下我们的日常生活,就会发现这种理想道德行为指南很少能够实现,如果回顾一下人类历史,还会发现这种想法有时甚至是危险的。人们或许会把这归结为人类情感和理性的不一致、每个人独特的个体性或彼此差异的利益诉求,诸如此类。人工智能的出现又一次激发了人类对理想规则体系的本能诉求。与人类不同,人工智能没有情感干扰、没有自我边界、没有利益诉求,能够绝对理性地遵从指令,用一个教科书式的规则体系对它进行规范似乎是理所当然的。但是,这个貌似无懈可击的推论中存在着一个未言明的预设,我们认为这个预设是错误的。根据前文的分析,“理想道德规则体系不存在”的依据在于道德体系自身的不完备性和道德直觉的多元性。进一步

16、认可“人类可以不按照理想规则行动”的依据,除了对上述事实的承认,还在于对人类道德主体资格的认可人们有权且道德上允许按照某一个可以得到辩护的道德直觉来行动,如果这一行动的理由和结果与共同体认可且得到充分辩护的某种准则不一致,行动主体应该承担道德责任。由此反观,认为“人工智能只能按照理想规则行动”的依据,就在于人工智能没有这种道德主体资格。但是,缺乏情感、自我边界和利益诉求的特点,并不是没有主体资格的理由。这种观点背后的真正预设,正如琼森所言:人工智能只是纯粹的机器和工具。刘文虽然在引论部分谈到了“人工道德主体”,但是在论证过程中并没有涉及这种主体性。我们在后文将指出,这一立场在理论上是无法得到有效辩护的,在实践上则难以处理人工智能社会引发的一系列问题。抛弃这一立场,则会根本上改变我们对人工智能伦理规则的构想方式,以及人类与人工智能关系的看法。三、人工智能主体意味着什么面对人工智能这一“新物种”,大多数人并没有做好心理准备。我们会把战胜人类顶级棋手的AlphaGo称

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > 解决方案

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号