“无头尸”引发的争议:杀人机器人是否可能(组图)

Image caption希区波特2.0仍旧充满信任,友善,愿意跟人分享。2015年,美国费城发生了一起“谋杀案”,一个靠搭便车只身周游世界的旅行者在途中遇害。

此案引起轰动,因为曝尸街头的受害者不是人,是一个机器人,叫希区波特(Hitchbot,搭便车机器人)。它的遇害引发的争议核心是人机关系。

在这件事上,问题不是人类能否信任机器,而是机器是否可以信任人类。

人类能不能杀死一个机器人?同样,人类可以如何防止被机器人杀死?


“无头尸”引发的争议

希区波特是加拿大科学家设计的实验小机器人,任务是研究人与机器相处的方方面面,尤其是人对机器的态度。

机器人首先是机器,是人类制造的工具。但人类无法不将机器拟人化,对它们赋予人性。人性中的善与恶便自然而然投射在机器人的世界,以及人类和机器互动的过程中。

希区波特开始周游世界后不久,即在费城被人发现尸横街头垃圾桶旁,而且是无头尸。虽然它的头是用透明塑料蛋糕盒做的,它很萌,设计成人畜无害的孩子模样,仍免不了这样悲惨的结局。

但是,“杀死一个机器人”这句话有没有语病?机器跟杀死同框,通常是机器杀死别的什么;杀死机器?毁坏机器是不是听着更自然?

现在还没有权威证据说明,机器被赋予多少人性、拟人化到什么程度,“杀死”机器人激起的反应才会跟杀死一个生命一样。

但世界各地许多实验室都在从事与此相关的研究。

图片版权HITCHBOTImage caption希区波特遭厄运前也曾风光过,在加拿大原住民的庆典上贵为嘉宾,还被授予“铁女人”名号。希区波特在人世间希区波特最近死而复生,就在它的诞生地,多伦多瑞尔森大学(怀雅逊大学,Ryerson University)。

如果让儿童设计机器人,可能看上去就像希区波特,蛋糕盒脑袋,白色水桶躯体,游泳救生浮条做成四肢,还坐在婴儿座椅里。它带着全球定位系统(GPS)接收器,还有一个与人对话的软件,它的胳膊可以动, 还会微笑和眨眼。

作为一个为搭便车而诞生的机器人,希区波特自然会竖起拇指示意需要搭车。

它的“父母”,弗萝克·泽勒(Frauke Zeller)博士和她丈夫戴维·史密斯(David Smith)教授把它设计成孩童的样子,以便赢得人们的信任,激起人们帮助它的愿望。


希区波特在人世间

一开始就遇到一对善良的老年夫妇,把它带到哈利法克斯的露营地度了个假。后来,它跟着一群年轻人去观光旅游,之后又作为加拿大原住民庆典仪式嘉宾,被赐予女性性别和名字 - “铁女人”。

希区波特在推特、脸书和Instagram上有自己的帐号,一路上吸粉无数,迅即成为网红;许多人驾车数十英里,就为了“偶遇”希区波特,让它搭车。

希区波特开始被赋予越来越多的人性,人们开始给它打扮,戴上手镯和其他首饰。

有时,控制中心觉得必须关闭希区波特的GPS定位仪,免得在路上搭载它的人回家后被其他打劫。

然后,突然有一天控制中心接到希区波特横尸街头的图片,胳膊和腿都被扯掉,脑袋也不见了。泽勒博士说,全世界的希区波特迷都倍感震惊,因为它已经成为信任的象征。

即使知道它只不过是一些物质材料的组合,泽勒博士的团队对这个结局的伤心也出乎他们自己的意料。他们本来没有意识到自己对这个小机器人那么有感情。

凶手至今逍遥在外。

图片版权RYERSON UNIVERSITYImage caption对于一个个子跟小孩差不多的机器人希区波特(Hitchbot)来说,搭车旅行充满了各种意外的惊喜和危险机器人的优势是可以死而复生。希区波特复活了,叫希区波特2.0,装了个新的脑袋,但它的父母不准备再放它出去做独行侠闯世界。

希区波特2.0第一次出门,有泽勒博士、史密斯教授和BBC记者一起陪同,去的地方是大学附近一个十分安全的咖啡馆。

当然它立刻被人认出来了,许多人停下脚步跟它打招呼、合影自拍,又见到希区波特了,大家都很开心。

希区波特现在还有一个机器人朋友,叫佩珀(Pepper),孩子模样,大眼睛,目前还在模型研制阶段。它们俩一起参加人机信任关系实验。

佩珀将来要从事的工作是跟癌症患者交谈。专家们认为,患者对佩珀会比对普通护理员更坦率,信任度更高。

图片版权INNVO LABSImage caption你能忍心用棒槌猛击这个机器恐龙吗?它叫普利奥(Pleo),住在波士顿,麻省理工大学(MIT)实验室。


棒打普利奥

人类对待仿真程度较高的机器,比如人形机器人和象形机器动物,有恶与善两个极端。一个是残忍,比如2015年小机器人希区波特之死。至于凶手是把它当作机器来破坏,或者为了拆走它的零部件和定位设施,还是在心理上把它当作人类一分子,施以残暴而获得变态快感,现在无解 。

另一个极端则是把人对人的善意投射到机器人身上,心理上完全把它当成有喜怒哀乐疼痛欢愉的生命。在机器人被砸、被破坏时,这样的人会把它搂在怀里,保护它免遭毒手。

MIT教授凯特·达林(Kate Darling)在她的实验室专门折磨仿真度很高的机器恐龙。实验目的是检测人类对机器的善与恶、爱护和残忍可以达到怎样的极限。

她研究人机关系,以及人类对待机器人的态度和行为所折射的心理特质,比如同理心、共情心,心理上的暴力倾向,等等。

她发现,有些人被要求砸机器恐龙时毫无心理障碍,而另一些人完全下不了手。值得注意的一个细节是,被棒槌击打的机器恐龙会发出哀嚎,作出痛苦的表现。它有名字,叫普利奥。

参加实验的大部分人都不忍心击打普利奥。

有一位妇女参加达林教授组织的一次折磨机器恐龙实验时,心疼机器恐龙,直接把它的电池取出来,后来承认自己那么做是觉得这样恐龙就不会感到疼痛。

一个无可争议的事实是,机器人、机器狗、机器恐龙,即使仿真到可以以假乱真的程度,实际上还是没有生命的机器,是金属塑料零件的组合,而砸碎它们在道义上并没有什么问题。

但是,如果把仿真机器人或机器动物放在动物的位置上,那么很容易观察到一个现象就是无情折磨、毁坏机器人/动物的那些人,往往都有虐待宠物和其他小动物从中取乐的习性;在他们心目中,仿真的机器猫、机器狗跟真的猫和狗没区别,机器逼真的反应更刺激他们的虐待本能。

图片版权RYERSON UNIVERSITYImage caption希区波特漫游途中在一位零时主人家歇脚,主人要款待这位稀客,而招待机器人的美食应该是电池。主人家的狗狗似乎不太以为然。


人类天性使然

MIT另一个实验室的罗萨琳·皮卡德(Rosalind Picard)教授认为,人们对普利奥的这种反应实际上还是跟 人性有关。

她是说,人际关系是人类的本能,天性,制造机器的工程师同样是人,同样具备这种天性。

把机器植入人际关系这个人类精神世界体系,是一件极具爆发力的事。

机器和人类在感情上能够沟通,机器能理解人类的情绪,对于服务类机器人来说至关重要,因为它们的职责就是为人提供服务,比如老弱病残的护理、家务劳动、餐饮服务等。

但是,对机器过度拟人化,对机器赋予过多的人性色彩,则可能不是很妥当。

皮卡德教授在她的实验室接受BBC采访时指出,“我们正处于一个关键节点,人类社会作为一个整体应该明确一点,那就是不能再用机器比人类更具人性的理念去误导人类。”

“它们可以在采访时 以假乱真,外表看上去可以像真人一样,在特定的情境中可以说出正确的话,”她说,但机器就是机器,与人类差远了。

机器人可以识别微笑的人脸,但它没有快乐幸福的感觉;它可以“学会”人在什么情况下会微笑,但不会理解“苦笑”。

图片版权MITImage caption皮卡德教授承认,即便是工程技术员也会对自己设计制造的机器产生感情依恋皮卡德教授承认,对周围的事物产生情感依恋是人类本能,即使是没有生命的机器,连她自己都无法避免陷入这个情感坑。

最说明问题的是,大部分人对自己的第一辆私家车都有一种特殊的感情,在心底深处那辆车被赋予了人性。

皮卡德说:“把那辆车卖掉的时候我几乎要掉眼泪。”

她的实验室研制帮助人类但未必长得像人的机器人,其中一款是在医院代替家长和护士陪伴儿童病患的机器人。

她认为人类必须克制自己对机器的情感,同时又必须让机器理解人类的情感。就像是这样:

“如果机器人惹你生气了,那它必须能够知道你生气了,就像你的宠物狗一样,知道它这时应该作出认错的表示,类似于低头垂耳耷拉尾巴那种姿态和表情。”

图片版权GETTY IMAGESImage captionWar robots are unlikely to be actual robots and instead will look like conventional weapons but with autonomy


杀人的机器人

谢菲尔德大学机器人学科教授诺埃尔·沙奇(Noel Sharkey)教授也认为,人们不应该过分沉溺于对机器人的拟人化,把机器当作有生命的人或动物来对待。

他对BBC表示,人类把机器人当作介于有生命和无生命之间的一种存在来对待,根源还是在人类对物的拟人化本能。

比如,一样东西活动了,人们会觉得它有思想,他说,但他希望自己能让人们停止对一切事物做这种“愚蠢的类比”,用言辞赋予它们人性。

他说:“我们应该开发一套科学的语言。”

沙奇教授最近参加了一个行业大会,在会上做了一个展示。他找到一个为养老院设计的可爱的机器海豹,把它的脑袋在桌子上猛砸。

在场的人无不对他怒目相视,斥他为妖怪猛兽。

而实际上他坚定地立足于和平阵营,他发起倡导禁止战争机器人的运动。把机器人用于战争,在他看来是现代机器人领域的头号伦理道德议题。

战争机器人并不像电影里那种拿着机枪的终结者;战争机器人实际上没有人形,它们是武器,看上去就是武器,只不过设计成可以自动寻找目标的杀人武器,“我认为这有悖于人类尊严。“

在他的反伦理机器人研发项目名单上包括:

哈皮(Harpy) - 以色利研发的反雷达信号的武器,能够侦察识别信号是否属于以色列的雷达。如果不是,就直接扔炸弹俄罗斯军方研制的自动超级坦克卡拉什尼科夫公司设计的自动枪械

图片版权RYERSON UNIVERSITYImage caption人类对机器赋予了太多的人性?但是人性本来就极复杂,在机器人世界的投射不会更多一层扭曲吗?过去五年来,沙奇教授一直在跟联合国合作,推动各国在一份国际公约上签字,承诺禁用战争机器人,或者在没有”有效的人类控制“情况下禁止使用战争机器人。

已经有26个国家签署了公约,包括中国。

但是,“人类控制”本身就包含着各种各样的问题。

如果编程出了差错,那么人工智能会作出什么样的反应?

如果用来制造娱乐机器人的技术被用来生产冷面杀手,又有什么机制可以防范、侦测?

在人机关系领域,应该有怎样的行为准则,游戏规则?应该搭建怎样的伦理框架?

这些都有待人类提供答案。

推荐阅读