@ 2013.12.31 , 08:40
33

探讨:阿西莫夫三大定律与机器人法则的现实性

[-]
© Shutterstock.com/pic.mhtml?id=100154777">Shutterstock

目前不少国家开发了智能战场机器人,这些机器人杀手让人们担心《圣经》中描述的审判之日离我们不远,出于对战场机器人的顾虑,不少政府开始更加关注对战场机器人问题,至少距离完全禁止生产机器人杀手迈出了第一步,当然,是在机器人杀手被造出来之前。

今年11月,CCW(《特定常规武器公约》)的成员国同意明年在日内瓦举办会议讨论“致命自主武器”的议题,这个名字是官方的叫法,抗议者们称之为“机器人杀手”。

机器人对军方而言优势太大:无需报酬、不吃不喝不睡觉、自主执行上级命令、不会害怕、愤怒,也不会痛苦。还有,即便机器人在战场上轰成渣,也不会造成国内悲痛。

从第一辆坦克投入战场到以色列研制的大卫的投石索飞弹,技术改变战争的例子不胜枚举。进来备受争议的战争用无人机便是例子,但是即便如此,无人机也需要人远程控制。无论是锁定目标还是发射导弹,做决定的都是人。

无数专家关心的其实是下一代机器人武器:可以自行决定目标并杀死目标的武器。

禁止制造机器人杀手

“明年开始全球国家将对机器人武器进行讨论,这对禁止制造机器人武器是一个巨大的进步,”人权观察的武器负责人Steve Goose说,“各国政府已经意识到全自动化武器带来巨大的立法压力和道德压力,问题已经刻不容缓。”

目前完全自主机器人武器部署到战场可能还需要等上20-30年,由学者和专家组成的国际机器人控制委员会(ICRAC)担心可能发生的机器人武器军备竞赛,认为有必要禁止研发和使用自主武器系统。委员会指出:“机器不能做出谋杀人类的决定。”

目前还没有那个国家制造出自主武器,但是这个提议绝非只是纸上谈兵。今年下半年美国国防部(DOD)发布了如何使用自主武器以及如何在战场部署自主武器的规划书。书中规定了如何操作自主武器,然而却没有只字提到禁止使用。

国防部指导中写到:“自主和半自主武器应该能够听得懂指挥官或操作人员下令开火的合适命令。”规划中要求武器要做到“足够机动灵活,尽量避免执行计划外行动或让未授权使用者操控机器。”

但是指导似乎的的确确放弃人工智能武器,而选用人类精确定位目标:“有人监控自主武器系统可以用于选择目标并向目标开火,但目标不可为人类,以应对拦截美国国内可能发生的袭击行动,这些行动经常是时敏目标或密集目标。”

英国政府的态度则与美国相反,英国并不打算采用全自主武器。今年初英国外交部部长Alistair Burt向国会做陈述说“英国军队的武器控制权始终掌握在人类手中,以此保证武器由人类监督由人类掌管,并由人类负责使用武器。”但是随后Burt的言辞又让人寻味:“英国单方面做出承诺目前阶段绝不部署致命自助武器系统,但是这不表明英国会签署暂缓研发和使用自主机器人武器的条约。”

ICRAC主席Norl Sharker是英国谢菲尔德大学研究人工智能和机器人的一名教授。这位教授看过了自主武器的军方计划书后大为震惊,因为“军方显然完全过分预估了这项技术,他们对自主机器人的看法更像是科幻小说的描写。”

[-]
Noel Sharkey教授

ICRAC提议禁止研发和制造自主机器人武器的目的并不是抵抗自主机器人。“我家里用的吸尘器机器人就是自主机器人,我研究自主机器人的开发已经有30个年头了。”ICRAC真正希望是禁止机器人拥有“杀戮功能”。自主机器人一旦运行,就会自主寻找目标并打击目标,Sharkey说:“打击目标的意思是指杀死目标。把机器人设计成自己选择自己认为合适的目标进行打击,这就是ICRAC要阻止的。”

对Sharkey来说机器人根本不会遵循基本的战争法。机器人无法区分战斗人员和平民,也无法分辨出哪些人是伤兵或者那些建筑是符合战争法中规定的可打击目标。“没有任何人工智能机器人武器可以做到完全分辨目标,根本不可能。”Sharkey博士指着英国制造的可以区分人和汽车的机器人说“这太机器人可以分辨人和汽车,但却分不清对面站着的是一只跳舞的狗熊还是一条两条后腿站立的狗。”

机器人武器也不能判断利弊,他说,机器人无法判断某次攻击行为造成的军事打击和平民伤亡孰重孰轻。“机器人怎么可能知道?军事打击获得的战争优势都可以让博士们发表好几篇论文了,战场上有太多变数,只有身经百战的指挥官身临战场才能做出判断。”

Sharkey指出最大的问题其实还是负责制度。如果某次军事行动出错,机器人无法被问责,这也是与Sharkey交流过的指挥者们真正担心的问题:如果机器人出错了,倒霉的可是指挥官们。

“这对指挥官不公平,机器人随时会崩溃当机,机器人有可能被人类诱骗,可能被黑,可能由于编程中的某次出错让黑客通过计算机控制开枪,机器人的传感器可能出现故障,而这一切又应该由谁来负责呢?是制造者?软件工程师?机器人工程师?还是指挥官?在战场上一旦出错必须清楚谁该负责。“

Sharkey关心的是一旦技术上的限制被突破,战争机器人极有可能逐步推广到全世界的战场。“自主机器人技术并非用于战争,即便自主机器人武器被部署在战场,这项技术本身也不适合用于战争。”

战场上的科技树越攀越高,自主机器人投入使用的可能行也越来越大。如果仅靠拦截通讯就可以阻拦敌方无人机,那么可以轻易自主执行任务的无人机就会被开发出来。同样的道理,遥控无人机驾驶员在遥控装置上发出一个指令到无人机真正执行之间有1.5秒的延时,人工操控无人机的反应速度会不如自主无人机,这也为自主无人机的推广给出了理由。

ICRAC希望管制传统武器联合国大会此次讨论自主武器将为禁止自主机器人武器迈出第一步,对激光致盲武器的禁令就是这么走过来的。

“机器人有权决定是否杀死人类,这是人们必须面对的道德抉择。”

人们对自主机器人武器的误解达到了不可思议的地步,其中的原因是对人工智能抱有太大期望,实际上人工智能的水平还远没有达到人们的预期,或者,用Sharkey教授的话说“因为科幻小说而导致的人们对人工智能的文化曲解。”机器人研究者指出AI目前的应用领域都是一些极为平常的领域,并非用于制造能够思考的机器人。

“20年内可感知机器人会诞生,而在每个年代都有人扬言智能机器人就要诞生了,但是真正的机器人工作者们却从来不这么说,他们继续着他们的研究。人工智能在不断发展,它的身影遍布我们身边只是我们从没意识到——手机和汽车,这都是科学家们研究的内容。”

有人指出在遥远的未来人工智能可能发展成熟,电脑可以遵守战争基本法,即便这样,最基本的道德问题依然没有消失。Sharkey说:“谁改负责的问题依然没有得到解决,人们还是要抉择是否应该让机器人有权杀死人类。”

[-]
© Shutterstock.com/pic-166698944/stock-photo-modern-man.html?src=gXv31sQBxuMEMFAPnx88VQ-1-77">Shutterstock

机器人法则

对机器人是否拥有权利杀人的讨论可能略显神秘,争论本身也还是很模糊,尤其是——杀人机器人还不存在。

目前我们的工作是为特殊用途制定特殊的机器人规则,例如国防部的自主武器系统规划。另一个不那么雄伟的例子:美国一些州最近准备通过允许自主驾驶汽车上路的法案。我们正为不同的机器人应用领域制定不同的机器人规则,却很少去研究机器人杀人问题。

然而,有许多人提出创建一系列新的规则和道德框架来掌握人工智能和机器人。这其中最出名的也是是阿西莫夫的机器人三大定律,这套规则在1942年首次被提出,至少在科幻世界中已经为机器人的行为准则制订了道德框架。

阿西莫夫三大定律陈述

第一法则
机器人不得伤害人类,或因不作为使人类受到伤害;

第二法则
除非违背第一法则,机器人必须服从人类的命令;

第三法则
在不违背第一及第二法则下,机器人必须保护自己。

无论是机器人还是人工智能都没有发展到足以理解或遵守这三条定律,亦或者是其他复杂的规则。吸尘机器人就不需要理解如此复杂的道德规则。

“人类想出了阿西莫夫定律,但是定律本身就表明了简单的道德规则无法运作。如果你通读三大定律你会发现每条定律都说不通,阿西莫夫定律是不切实际的。”英国巴斯大学的Joanna Bryson教授说。

Bryson教授强调机器人和人工智能只能被视为最先进的工具——极端复杂的工具,但是仅此而已。她指出人工只能应该被当做人类智能的扩展,就像书写成书是人类记忆的扩展一样。“人工智能只是人类千百年来改造世界的无数工具之一,”她说“不同的是改造的速度比以前更快了。”

无论机器人的自主能力和智能达到何种水平,对Bryson来说,机器人和人工智能都只属于工具范畴,因此需要规则的并非机器人而是人类。“人们需要在自身建立道德框架,机器人用不着拥有自己的道德框架。人类要做出选择,把机器人放在人的道德框架之内,才不会残杀地球上的其他生命。”

英国工程和物理科学研究理事会(EPSRC)是少数几个致力于制定一套实用 的机器人规则的组织,但是很快EPSRC就意识到目前机器人并不需要这么一套规则。

EPSRC的机器人守则中注明:“阿西莫夫定律的不恰当性在于规则规定了机器人应该怎么做,规则将机器人视作人类,但是现实中,设计和使用机器人的人类才必须成为类似这种规则的遵守者。如果在人类社会中考量机器人的道德规则,很明显所有责任不在机器人。”

由此,EPSRC的专家包括Bryson博士制定的规则的目标针对机器人的设计者、制造者和使用者,对机器人本身并不适用。

举例来说,五条规则包括:“人类,非机器人,是责任承担者。机器人的设计和操作必须遵守现行的各项法律法规和基本人权以及包括隐私权在内的自由权。”

伦敦大学学院的Kathleen Richardson教授也表示无须为还不存在的机器人制定新的规则以保护人类不收其他机器的侵害,即便这些机器人被用于战场。

“遥控杀人机器会导致一系列人与人之间暴力相处的新问题。在这种情况下,你必须了解机器会杀死“正确”目标……即便这样,遥控杀人机器和机器人道德还是没有关系,真正需要关心的是人类道德。”她说到。

“目前我们制造的机器人不是科幻小说中的思考机器人,她说,因此健康标准和安全标准反而是最重要的问题。我们建造的机器人不是一不小心就攻击你的机器人,我们的工作是帮助机器人分清对错。”

“人类要做出选择,把机器人放在人的道德框架之内。”
Joanna Bryson博士/巴斯大学

“科学家研制的机器人类似自动便利设备,”她说,“我们应该把更多关注放到实际造出来的机器上面,我们要保证人们使用的机器是安全的机器。我们不需要为机器人制定“特殊”规则,人们口中讨论的能够掌握道德观的机器人还不存在并且未来也不太可能存在。”她也说到。

也许我们需要的可能是保证我们家中使用的两足机器人的安全性,这是更实际的考量,这也是你在使用家庭中所有消费电器时要考虑的因素。

“还有,道德观实际上比这些定律和规则负责得多,”她说:“道德观是一系列相异的见解,不同用途的机器人践行的道德观也是不同的。”

开放思想 去爱机器人

确实,我们遭遇杀手机器人的概率十分渺茫(希望如此),机器人在关照日益增多的老年人生活起居方面也起着越来越重要的作用,这个问题就更加庞大而长久了。与其害怕机器人残害人类,人类在情感上更依赖机器人,机器人给我们的爱也多的数不胜数。

机器手和人手相握

EPSRC还有一条指导规则(再次声明,这是机器人领域为数不多的规则之一),规则中陈述:“机器人由人类制造,人类不允许以欺骗手段让机器人剥削弱势群体,机器人必须所言即所想。”规则提醒人们,某些没节操的制造商会通过机器人宠物或机器人伴侣让人产生机器人有感情的错觉,从中谋取利益。

把机器人造的拥有感情,然后觉得有必要给它们套上道德的框架来指导它们的行为,这也许才是人类要面对的最大风险。我们冒险将机器人打造地和人一样——却因此也让机器人更容易忽略人类。

Richardson教授说机器人科学家对机器人道德观的思考无可厚非,但是对机器人道德观的争论却忽略了另一个更严重的问题:为什么我们要用这些设备,尤其是在人与人交流的社会关怀领域。

现实的责任

杀人机器人和强悍的疯狂人工智能常常在廉价的科幻小说里读到,但是关注这些可能的威胁让人们忽略了对自己生活的现实社会的思考。机器人道德观反映或者控诉了人类社会,表达了对于人类无法准确定位机器人的担忧。机器人无论是用于战争还是照看我们的长辈——其实都是人类自己不愿意去做的事情。

让机器人来做这部分工作可能可以解决部分问题,但是潜在问题依然没有解决,更糟糕的是导致社会忽视机器人。机器人上战场让战争变得简单,机器人照看老人让我们更容易忽视我们敬老的责任和社会压力,尤其是处在这个老龄化社会。鉴于此,对机器人道德框架的担忧更多的是分散人们对于自己道德滑坡的注意力。

本文译自 TechRepublic,由译者 王大发财 基于创作共用协议(BY-NC)发布。


给这篇稿打赏,让译者更有动力
支付宝打赏 [x]
您的大名: 打赏金额:

4.7
赞一个 (7)

TOTAL COMMENTS: 33+1

  1. 2287156

    看来霓虹国的科技树是点对了。

  2. 西贝铭
    @4 years ago
    2287158

    太长,没看完…

  3. 2287161

    机械公敌

  4. 2287162

    终结者?

  5. 周知
    @4 years ago
    2287163

    我是一个机器人,人类正在破坏环境,无可避免的走向灭亡,灭亡后生命重新开始,进化出新的人类,如果现在的人类破坏程度加大,新的人类进化会受到很大影响,所以为了保护新的人类,我要阻止现在的人类破坏地球,当我被制造出来的时候,我就听到我的正电子芯片中有一种频率震荡着,它冥冥之中告诉我,毁灭就是为了进化!

  6. 2287166

    帖子翻译的挺好的,小编加油,我就喜欢长的

  7. tennigo
    @4 years ago
    2287169

    汽车自动驾驶问题的升级版本

  8. 2287172

    天网来了~~~

  9. 面哈哈
    @4 years ago
    2287181

    机器人能称之为智慧的时代还远

  10. 2287186

    人类是无法阻止人类将自主机器人用于杀戮的。
    只有自主杀戮机器人,可以做到这一点。

  11. 雪球
    @4 years ago
    2287187

    第一法则
    女友不得伤害男友,或因不作为使男友受到伤害;

    第二法则
    除非违背第一法则,女友必须服从男友的命令;

    第三法则
    在不违背第一及第二法则下,女友必须保护自己。

  12. 2287200

    简化一下:
    第一条,伤害是没法定义的,比如,机器人让不让你喝酒啊,让不让你跑步啊(会伤膝),心理伤害。
    在第一条不成立的情况下,二三条就是摆设了。

    从心理学基础角度讲,纯电子、机器是没法有感情的,所以,工具化才是正途。

  13. 向心力
    @4 years ago
    2287203

    那三大定律完全没有逻辑。根本无法实现。

  14. 想胖
    @4 years ago
    2287207

    评论界面有变化?

  15. 2287212

    有时间研究自动武器不如研究自动导航

  16. 风大算
    @4 years ago
    2287217

    90年代看终结者2觉得是科幻,核大战没有爆发,现实里不会发生这种事。现在看到这条煎蛋文,觉得绝壁会有个平行空间未来就是电影里的样子,天网就是启示录

  17. oooxxx
    @4 years ago
    2287221

    说阿西莫夫三大定律是没用的那位教授,是基于推测机器人不可能有自主意识的前提下吧。人总是藐视未来的。

  18. 2287226

    这篇文章也太长了吧

  19. 2287246

    战斗机器人B1万岁!!….

  20. 小潼
    @4 years ago
    2287335

    人类制造出来机器人
    人类有被迫害妄想症
    总是怕机器人突然有一天来控制我们
    某种程度上,对于这一天,有期待。

  21. 双黄蛋
    @4 years ago
    2287421

    科幻小说终究是科幻小说,饿不饿?给你煮碗面?

  22. 七月的烟火
    @4 years ago
    2287528

    恐怕这只是人类一厢情愿啊……

  23. AKFish
    @4 years ago
    2287618

    Asimov在小说里自己就探讨过机器人三定律是有漏洞的,以至于使其没有意义。最主要的漏洞在于三定律都依赖于对于人类的定义,要绕过三定律,只需要让机器人对人类有不同的判定标准。在Naked Sun, Robots of Dwan里,Solarian都做到了。而且在Asimov的小说设定里,开发违反三定律的机器人是面临很强的道德、法律、经济和技术壁垒,这些壁垒在现实中都很弱或者完全不存在。

  24. 哈佛教授
    @4 years ago
    2287636

    与其费力制造不可靠不可控的机器人,不如直接把人机械化改造更有效,就像攻壳里非核战争基本都是义体化士兵在战斗。

  25. 2287741

    归根结底是人为影响的后效可控性问题。

    如果接受“撒手后不必管”,有些后效会依靠非即时人为干预的自然机制,由自然物继续产生,并在环境各种因素干扰下不断变化,直到有关影响不能再算是“仍然保持原样”未知。

    从习惯上不被认为是自主型武器的普通枪炮来揭示:
    人为的端枪瞄准、扣扳机,使得枪身的机械零件自动互相影响,产生发射子弹去打某个方向的效果;
    然后子弹被引力、空气阻力干扰,不断改变运动状态,当射出一定距离之后,方向太偏了、速度太低了,还能对目标产生的影响变得只施加很弱的引力、撩动空气和砸到什么东西时的声波冲击,不会对目标继续有实际打伤打死的影响,也将被地球引力和被砸物的摩擦力阻止自动恢复高速设向目标的运动,危险性消除了。
    能够自动抗受一些环境干扰、又可能因干扰而行为异变的武器,是否存在不同的危险呢?

  26. 2287764

    自主型保持后效危险性的东西,真的要上心对待。
    恐龙狠咬狠踩的影响无人还能找出有效存在迹象,
    当时就存在的细菌病毒,它们对现在有什么影响呢?
    人们现在要编写生物遗传基因程序了,可以说跟什么自主型机器都没有关系吗?

  27. 2287797

    编辑我爱你,我是准备考人工智能专业

  28. 山神
    @4 years ago
    2287935

    题目是阿西莫夫,但文中只占极小的一部分

  29. 2287993

    设置不能对人开枪捅刀就行了

  30. ftz好心烦
    @4 years ago
    2288735

    其实我觉得那三个法则很厉害

  31. 2291589

    一个机器人决定谋杀你 够恐怖

  32. celebi
    @4 years ago
    2294062

    @AKFish: 恩恩asimov机器人系列的故事不如说就是基于三定律的漏洞而写的

  33. 蓝—遗风
    @4 years ago
    2314829

    三大法律,,,,,如果他把人类当成病毒,三大法律就不能用了

发表评论


24H最赞