改良版阿西莫夫三定律

17-09-08

Permalink 06:42:41, 分类: 佳作转载

改良版阿西莫夫三定律

阿西莫夫的机器人三定律(Three Laws of Robotics)能否拯救我们,在果壳和知乎上有很多讨论,有时甚至很激烈。
最近艾伦研究所CEO,华盛顿大学计算机科学教授奥伦·沃茨奥尼(Oren Etzioni)在《纽约时报》发文,呼吁政府尽快规范人工智能。(注:艾伦研究所是由微软联合创始人保罗·艾伦与他人在西雅图联合创立的一个专注于人工智能的研究所。)
他算是有备而来,并非空喊口号,而是带着提案来建言的。
开篇先平静了一下气氛,以埃隆·马斯克作反例,表明立场:我并不是那种读了科幻小说就来危言耸听的企业家,我是 AI 研究人员。但是与马斯克先生一样,我们也意识到 AI 带来的影响,也理解社会自然而然生出的疑问:我们是否应该发展 AI ?
答案是肯定的,然而重要的是后面这个但是。但是我们是否应该谨慎慢行?沃茨奥尼自己倒是把眼光投向了科幻,而且是大半个世界前的科幻,阿西莫夫的“机器人三定律”。

抄一段维基:机器人三定律是科幻小说家艾萨克·阿西莫夫(Isaac Asimov)在他的机器人相关作品和其他机器人相关小说中为机器人设定的行为准则。第一条:机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害;第二条:除非违背第一法则,机器人必须服从人类的命令;第三条:在不违背第一及第二法则下,机器人必须保护自己。
你得承认这三条定律的设计是精巧的;但它来自文学作品,因此定义含糊似乎也无可厚非。比如,是什么构成了伤害,没有定义,尤其是再扩展到通用AI层面的话。
沃兹奥尼便在此基础上提出了更具体更有针对性的三定律,来规避AI可能给人类世界带来的伤害。
第一条,AI 系统必须服从一切适用于其人类操作者的法律。这一条规定涵盖了个人、企业以及政府的系统。比如,从个人层面,我们不希望看到AI被用于数字霸凌,股市操纵或者恐怖威胁;从政府层面,我们不希望看到FBI开发出AI系统来引诱人犯罪;从企业层面,我们不希望看到无人驾驶车辆闯红灯;最糟糕的,我们更不愿意看到触犯国际公约的AI武器。
第二条,AI 系统必须主动明确地交代自己的非人类身份。这一点相信很多人都已经有过经历,如今的计算机程序能够与人进行非常老练的对话。例如推特上的一个帐号@DeepDrumpf,事实上是一个可以准确模仿川普的机器人,轻松搞出一堆一堆的假推文;类似的,AI 也生成视频假新闻,活灵活现,例如从奥巴马的真实演讲中提炼元素,合成出一段真假难辨的假演讲。
第三条,AI 系统不得在没有信息源明确许可的情况下,获取并公开保密信息。由于它们本身所具有的获取、复制以及分析信息的超强能力,使得它们在获取保密信息方面,具有极大优势。举几个日常生活的例子,如今已经走进千家万户的亚马逊Echo,连你女儿的芭比娃娃都有智能,能听懂女儿用语音交代给她的任务,你家里还有多少信息没有被收集?又比如,看上去老实巴交,人畜无伤的扫地机器人,它若要做出一份你家里的精密地图,是不是也轻而易举?而这些信息,你是不是希望能够有所掌控?

沃氏这三条定律,猛的一看,比阿西莫夫精细。
不妨逐条来看看。
第一条其实基于一个预先的假设,那就是这些AI系统的设计者和使用者们是遵从伦理和法律的;然而事实上,他们当然不都是。就这一点而言,大半个世纪前的阿西莫夫其实做得更好,因为他用到一个通过硬件固化的“正电子脑”(positronic brain),这比起法律来,显然更使得“坏人类”无空子可钻。当然“正电子脑”是一个虚构的技术设备,但是既然沃氏的改良三定律本身就基于同一个虚构体系,比比似乎也无妨。
此处带一句题外话,去年我就听说,有不少科技公司争相聘请科幻作家给他们出点子,当时联想到那之前不久离世的怪才马尔文·明斯基的天马行空,还慨叹现在的科学家难道已经不会胡思乱想了?阿西莫夫的“正电子脑”,是故事中机器人的CPU,并且被赋予了一种能够与人类共通的认知,这种形式的认知,在小说里当然没有严格的科学定义。但它作为硬件而被固化在大脑中这个设定本身,毫无疑问是远比“法律”条文有保障的。此外正电子一说,在他的定律里没有特别的意义,当阿西莫夫写这部小说时,正是1939年,1940年,尚处于卡尔·安德森因发现正电子获得1936年诺贝尔物理奖的热潮当中,这个词被选中写入小说,应该只是一种蹭热点的写作策略。
沃氏三定律的第二条,立刻让人联想到的是图灵测试。近年最广为公众谈论的图灵测试通俗版本,大概是2015年的电影《机器姬》(Ex Machina)的演绎。

“你知道图灵测试是什么吗?”老板内森问,
“……(沉默,懵的表情,我当然知道)哦,我知道图灵测试是什么?”职员凯勒布回答。
内森看着凯勒布,示意他继续。
“是当人类与计算机交流时,如果人类不知道与之交流的对方是计算机时,测试就算通过了。”凯勒布给老板(观众)解释说。
“这个 ‘通过’告诉我们什么?”内森神秘兮兮地问,
“(说明)这个计算机拥有人工智能……”内森忽然恍然大悟“你在建造一个AI?”

这是电影开始不久的一段对话。基本上对把维基对图灵测试的解释,以及该测试对AI的意义,用戏剧性的对话形式照抄了一遍。
然而沃氏三定律第二条,却是希望通过法律条文来规定AI系统自报身份。它所展示的问题与上一条类似,假定人类(AI建造者或拥有者)的良知,依赖法律的执行。而不是从技术上去杜绝,既然它能通过图灵测试,换言之能懵你,反向的精准的测试来识别它们难道不比仰仗良知更可靠?
第三条的缺陷可能就更明显了。它假设所谓的“信息”全都掌握在可识别的人类信息源手中。这一个假设,在浩如烟海的数字宇宙中成立的范围,微乎其微。
是的,AI必须可控,但定律的建设,应当基于假定它将遭受同等智能水平的,有意攻击的情况下。因此从这个角度看,往好了说,沃氏三定律的意义也只是抛砖引玉。
再从伦理角度来看,比如维克多·弗兰肯斯坦所制造的怪物,它激起了整个社会的愤怒和恐惧,应当受到惩罚的是制造者维克多·弗兰肯斯坦;而怪物本身,某种程度上是“无辜”的,“I am malicious because I am miserable”(我心怀恶意,因为我凄苦不堪),怪物的这一句振聋发聩的名言所带出的伦理悖论,玛丽·雪莱在那部作品里早已经清晰地提出。就像维克多不能推说“是那怪物干的”,而逃脱责任一样,AI的开发者和拥有者也应当对AI的行为负责。

比如,根据沃氏三定律,AI系统掩盖身份是犯罪,未经允许披露保密信息是犯罪,而为此承担责任的应该是谁? 在现有的法律条文中,这些大概都并未触犯刑法。
机器目前在替我们做许多事,还会做得更多,而真正需要警醒的是那些希望利用AI来伤害大众利益的人。无论技术多强大,受益的或受损的还是使用者,人类。
沃氏三定律更大的一项欠缺,是它没有涉及到AI对人类存在价值以及经济生存方面的威胁。随着机器越来越智能,在越来越多的领域取代人类劳动力,致使越来越多的人去竞争所剩不多的工作机会。 其结果是成就了一批技术寡头,损失的,是大多数人的生存空间。在这个问题上,用全社会的利益为代价让少数人受益,是在拿我们的未来冒险。
话说回来,这个问题也许更应当归入社会学范畴,似乎并无技术上的解决方案。当代社会对技术的信仰已经呈现出宗教般的虔诚,然而技术这个上帝根本上是残忍的,他并不关心贫穷绝望的人,他甚至压根对生命本身毫不关心。工业革命时期就已经如此,人们成为越来越发达的技术的依附,就像卓别林在《摩登时代》里展现的一样。如果危言耸听一把,人类的每一次“进步”似乎就是一定程度上的一次自毁。
最后,按目前机器学习和神经网络的阶段,沃氏定律的意义确实不大。你可以把神经网暂时放在监督学习系统(supervised learning,往期文章有过介绍)中,可以使它一定程度遵循这些定律。然而,一个具有真正学习能力的神经网络,从设计本身而言,它就具备高过监督学习系统的“智能”。此外,在很多情况下,智能体具有超过大部分人类的专业领域知识,而且还成百倍、万倍地比人类劳动力便宜。从资本,从经济,从性价比的角度,这二者都根本不具备可比性。
如此,知乎、果壳以及我们芸芸大众,都还要继续争辩下去,沃茨奥尼教授带来的改良版阿西莫夫三定律原来没有解决我们的问题。

爱乐洪哥

莫听穿林打叶声,何妨吟啸且徐行。竹杖芒鞋轻胜马,谁怕?一蓑烟雨任平生。 料峭春风吹酒醒,微冷,山头斜照却相迎。回首向来萧瑟处,归去,也无风雨也无晴。

统计

搜索

分类


最新评论

最新留言 [更多留言]

选择一个布景主题

杂项

友情链接

北美中文网

引用这个博客系统 XML

加西网 版权所有 2004-2017