《人权研究(第二十一卷)》:
(二)智能机器人权利的限制
无论是对机器人权利抑或是对智能技术的限制均源于对风险社会的把控。人类在其发展过程中一直将生存作为最适当的目的和最大的善,哈特在其《法律的概念》一书中将人类是脆弱的作为五个自明之理的首要预设,认为生存是所有人类行为最基本的意图跟目的,并以此提出禁止使用暴力、禁止杀人、禁止伤害等一系列规则,回归人性的特质提出生存是法律和道德共享的最低限度的内容,主张生存权意味着人们意识到了伤害的危险和死亡的存在。确实,人类的发展史在某种意义上讲是与风险共生共存的,在原始社会,人们面临来自自然的危险和强制,近年来人们基于对自身理性的过于自信加之冒险的天性成为风险的主要生产者,风险的结构和特征发生了根本性的变化,产生了现代意义的“风险”并出现了现代意义上的“风险社会”雏形。智能机器人就是风险社会的主要因素之一,其产生的诸多社会、伦理、法律问题诱发了全球风险意识的形成,人们开始反思是否应该对该项技术加以限制,应否基于安全的考量着手制定相关政策和法律来为防范技术运转失灵提供规范性框架。
著名科幻作家阿西莫夫(IsaacAsimov)提出的机器人法则的立足点就是对机器人的权利进行限制。1942年他在短篇小说《转圈圈》中提出的机器人学三大原则是:原则一,机器人不得伤害人类,或坐视人类受到伤害而袖手旁观;原则二,除非违背第一法则,机器人必须服从人类的命令;原则三,在不违背第一法则及第二法则的情况下,机器人必须保护自己。这就表明机器人可以在不伤害人类、服从人类命令的前提下主张权利。这一观点一直被认为是机器人的“圣经”,但是当我们审慎辨之会发现这三个原则是讲不通的。首先,原则一是以伤害结果为导向的,然而“伤害人类”本身就没有明确的界定,加之伤害的情节会千差万别,因此伤害一词需要放人具体语境进行个案分析。与此同时,原则一是传统人机主奴关系的推演,仅将其视为工具或者人的奴仆,伴随着机器人从智能机器时代到生物机器时代的角色转变,具有深度学习能力甚至是具有自主决定意识的机器人已经在很大程度上近似于人甚至在某些层面超越于人,此时人机伦理仅局限于“不伤害”的消极义务是远远不够的。假若机器人处于中立的地位,人类却远非一个思想一致、立场统一的群体。人们经常意见分歧,决策前后矛盾,后悔这样那样,更不要说利益不同、彼此为敌了。机器人服从一人,便有可能妨碍或损及另一人的利益,反之亦然。叫它如何行动呢?其次,原则二也存在类似的问题,它还是将机器定位于无智能时代机器人工具意义的基础上,而现阶段基于物联网大数据深度学习的机器人在决策的准确性、大局观跟结果预测上皆远胜人类,此时还让其听从于人的命令难免不利于谋求人的利益最大化。最后,原则一、二、三之间也存在内部逻辑冲突,我们举几个例子来进行阐述。第一,当A、B两人进行决斗,机器人如果救A或者B任何一人都会对另一人造成伤害,如果视而不见又会违反原则一的后半部分;第二,要求机器人服从人类命令,如果机器人的主人A要求机器人提供性服务,性服务本身不违反原则一,但是在提供性服务过程中对服务的接受者B造成人身意外伤害,算不算违反原则一?再者如果机器人为保护自身提供虚假信息使得其主人发出错误指令,机器人的行为是否算违背原则一和原则二?因此我们不难看出这三条原则的内部结构是混乱的。机器人发现自己无法同时遵守原则二和原则三从而陷入了不断重复自己先前行为的循环,称为转圈圈。因此将阿西莫夫三原则作为机器人权利的限制原则,这种错误的价值导向会比无价值导向造成更大的混乱。那么到底该设定什么样的准则来限制机器人权利?
……
展开