走进科学
虐待或杀害机器人的行为可以接受吗?
# 本篇为网友投稿
[-]
我们同机器建立了如此深厚的情感纽带,以致人们即使知道它们没有生命也不愿残忍对待它们。那么机器人应当拥有权利吗?
你会去伤害这个机器人吗?看到社交机器人受到虐待或伤害时,人们往往会感到难受。问问自己,如果这些机器人也有同样的遭遇,自己会作何感受?
凯特·达林(Kate Darling)喜欢邀请别人残忍地对待可爱的机器人。达林在自己今年组建成立的工作室里邀请人们同儿童玩具电子恐龙玩耍,这只绿色柔软的电子恐龙有着让人信赖的眼眸和带有情感的举动。刚从盒子里取出时,它就像一只无助的新生幼犬——它无法行走,你得带它认识世界。
人们搂抱着这些可爱的恐龙,还给它们挠痒。然而就在1小时候后,达林变得如刽子手般地给参与者分发了刀子,短柄小斧和其它工具,并要求他们折磨肢解各自的玩具。她说,接下来发生的事情’“比我们预期的还要引人注目。”
[-]
作为麻省理工学院的研究员,达林认为我们对残酷对待机器人作何反应是很重要的,因为新掀起的机器浪潮迫使我们重新思考人类与机器的关系。本月达林在波士顿发表演讲谈到电子恐龙试验时,她提出了虐待某些机器人的行为很快就将为社会所不容的理由。她甚至觉得我们也许需要出台一系列“机器人权利”法规。这样一来,虐待或杀害机器人的行为还会是可以接受的吗?在虐待机器人之前不需要三思吗?
直到最近,科幻领域才有了机器人权利的概念。或许是因为我们周围切实存在的机器人没有那些人情世故,所以没人会为丢掉的烤箱或遥控玩具车感到难过。然而,社交机器人的到来改变了这一切。达林说,它们就像宠物或类人动物一样有自主行为,还能传达动机。也就是说,它们给人感觉是有生命的,这能触动我们无法自已的情感。
例如,广播节目广播实验室(Radiolab)在2011年进行了一个小试验,来自麻省理工学院的弗里德姆·贝尔德(Freedom Baird)要求孩子们将一个芭比娃娃,一只仓鼠和菲比机器人倒掕着,直到他们觉得难受为止。虽然孩子们一直等到手臂乏力才停止这么做,但他们很快就不再折磨那只蠕动着的仓鼠,随后也不再折磨菲比机器人了。他们已经到了懂得菲比只是玩具的年纪,但无法忍受它哭喊“我害怕”的方式。
不止是孩子们与这些用电线回路捆扎而成的机器人建立了令人惊讶的关系。达林说,有些人给他们的伦巴(Roomba)吸尘器起了名字。士兵们还给他们的机器人授予荣誉“勋章”或举办葬礼。她举了一个被设计用于踩踏地雷去除其引信的军用机器人的典例。在一次测试中,爆炸炸毁了机器人的大部分腿部,然而陂腿的机器人仍坚持一瘸一拐地继续任务。据华盛顿邮报,看到挣扎着的机器人,负责人陆军上校因觉得“不人道”就取消了测试。
Killer instinct/杀生本能
[-]
一些研究人员一致认为,如果机器人给人感觉有生命力,那么它任何体现思维的细微模仿举动都会让我们对机器产生同理心,即使我们知道它们是人造的。
今年年初,来自德国杜伊斯堡大学的研究人员使用功能磁共振成像扫描仪和测量皮肤电导率的设备来追踪人们观看一只受折磨的电子恐龙的反应——方法有令其窒息,将其装进塑料袋或殴打它。他们测定的生理情感反应情况比预想的要强烈很多,尽管他们知道自己只是在看一只机器人。
达林2月份在日内瓦召开的Lift会议上邀请人们折磨电子恐龙时也有同样的发现。但工作室里人们表现出的不安则更出人意料。
在同电子恐龙玩耍了1小时后,人们拒绝用获得的工具伤害它们。于是,达林玩起了心理游戏,她告诉他们可以通过杀害别人的电子恐龙来挽救自己的。即使这样,他们仍不愿意。
最后,她告诉所有人,如果没有人上前杀害一只电子恐龙的话,所有机器人都将惨遭杀戮。在被逼上绝路后,一名男子不情愿地上前将短柄小斧朝一只玩具挥去。
据达林回忆,暴行结束后,整个房间里的人沉寂了数秒。人们强烈的情绪反应似乎已让他们感到惊讶。
考虑到产生强烈情绪反应的可能性,欧洲的机器学家们在很多年就认为有必要为机器人建立新式道德准则。他们认为要将作家艾萨克·阿西莫夫(Isaac Asimov)著名的“机器人定律”进行改编,以适应现时情况。他们的五条原则之一是,“设计出来的机器人不应具有欺骗性。。。他们应当表现出明显的机器本质”。也就是说,需要以某种方式消除机器人带来的情感和意图错觉;并看到机器人的真实面貌:构成它们的复杂电线,制动器以及软件。
然而,达林认为仅靠道德指引还不够。她说,或许我们需要借助法律体系来保护“机器人权利”。
如果这听起来荒谬的话,达林举出禁止虐待动物法作为先例。我们究竟为何要立法保护动物呢?仅仅是因为它们能感受到痛苦吗?如果真是这样的话,达林质问为何只有某些动物受到严格的法律保护,而其它的则没有。很多人喜欢食用工业农产在恶劣环境中培育出来的动物,习惯用脚踩死昆虫,但却会因邻家的猫遭到虐待或看到鲸鱼被捕杀而受到惊吓。
达林说,或许是因为我们只有在意识到它们也与我们遭受着类似的痛苦后才会立法。而我们创立大部分这类法律的主要原因可能是不想看到暴行。较之于动物的遭遇,这更关乎我们自己的痛苦情绪。所以,达林辩称这与暴行引发的后果无关,而是人们难以忍受自己的不安。
Feel your pain/感受你的痛苦
[-]
事实上,受害者遭受的伤害并不总是我们决定要管制技术的唯一原因。看看这个全新的玩意儿:几周前,英国医学会认为应当禁止在该国的公共室内场所抽电子香烟的行为。英国医学会认为,这并不关乎抽烟者或其周围人是否面临健康风险,但这个规定再次将禁止在公共产所吸烟的行为正常化了。
再举个例子:如果一位父亲当着自己4岁儿子的面虐待机器人,这种行为可以接受吗?我们无法期望孩子拥有成年人那样高深的理解能力。折磨机器人的行为告诉他们,引发机器人痛苦的行为(不管是否是假装的)在某些情况下是可以接受的。
或者再极端一些:设想如果有人要把从实验室里造好的儿童机器人取出并卖给打算发泄阴暗欲望的□□癖者,社会应当允许这种情况发生吗?
这种看似没有受害者的恶行在现实世界里已经上演。今年初,一个网络论坛在谈论侠盗猎车手游戏时问了玩家们是否可接受游戏里有□□行为的问题。有人回复说:“我想有机会劫持一名女人质,将她关到地下室并每天强暴她,听她哭泣,看她流泪。”《纽约客》(theU+00A0.New Yorker)描述了这个道德窘境。如果这样令人不快的欲望真的能借助模仿受害者的机器人实现,那就更让人难以忍受了。
在未来的某一天,可能会发生一些令人不快的转折:机器人真的可以感受到痛苦——只是与我们的不一样罢了。有些研究人员已经着手制造可以“感觉”到痛苦的机器人来驾驭世界。有些人担忧,如果机器人最终获得感知自己存在的能力,后果可能并不那么让人愉快。为此,哲学家汤玛斯·梅辛革(Thomas Metzinger)认为我们应当完全放弃建造智能机器人的努力。梅辛革说,第一个有意识的机器人会像个迷茫、无自理能力的婴儿一样——当然不会是科幻小说里高级、具有破坏力的人工智能机器——因此把他们当做典型机器来对待的行为会是残忍的。他说,如果机器人有基本的知觉,那就无所谓它是否是仿造的。它能感知到自己的生命,能体验到痛感。“我们应当避免给宇宙增加痛苦的总量,” 梅辛革如是说。
我们所明确知道的是,机器人具备很多的“活力”,表现在其对动物可爱行为的基本性模仿到将来获得疼痛感的能力。但正如达林电子恐龙试验所表明的,要触动我们的情感并不需要花费很大力气。问题在于,我们是否可以——或应当为这些机器界定对其来说是不可接受行为的界限。你的界限是什么呢?是机器人痛苦地哭喊,还是向你求饶?是它感到疼痛的时候?还是流血的时候?