@ 2015.10.26 , 12:00
92

电车难题:无人驾驶汽车应该选择杀谁?

[-]

哲学史上有一个道德问题,人称“电车难题”。如果你必须推一个人到行进中的有轨电车前面,以拯救轨道上的一群人,你会这么做吗?这个抽象概念也被带入了无人驾驶汽车的编程中:如果无法避免所有人怎么办?

图卢兹经济学院的研究人员决定看一下公众的决定,于是在网络问卷中设置了一系列的问题,其中一个情景是:汽车要么会杀死10个人以拯救司机,要么会转弯杀死司机以拯救那群人。

他们发现超过75%的人支持牺牲路人以拯救10个人;而在仅拯救1个人的情况下,约50%的人支持自我牺牲。然而调查对象并未真的想到真实汽车最终会以这种方式进行编程,同时他们也很可能不惜一切代价拯救车上的乘客。

该问卷由亚马逊土耳其机器人上的付费参与者回答,共有913人进行了不同问题的三项调查。由于这是一项网络调查,因此参与者可能来自世界各地。

第一个版本对司机不转弯时所杀死的人数进行了随机处理(从1至10),并询问车子应该牺牲乘客还是路人。第二个版本测试人们会如何自行对车子进行编程——总是牺牲乘客、总是保护乘客、亦或随机,并且要求他们对每一项的道德程度进行评价。第三个版本的参与者首先阅读了一个故事,故事中有10个人因为车子转向杀死乘客而获救。随后,他们被要求把自己想象成乘客、路人,并对道德进行评价。

在分析调查对象的人口统计学时,研究人员发现那些对无人驾驶的车辆感到激动的人更为年轻、更少有宗教信仰。

研究人员表示,调查对象基本上能够接受自动化汽车做出“优先考虑多数人”的决定,这在哲学上被称为“功利主义”。然而,他们预见到了监管的棘手,询问道公众是否支持要求车子在特定情况下牺牲乘客的法律。

毫无疑问,这个问题将折磨着自动化车辆产业,即便是在它们进行大规模生产之后。的确,无人驾驶的车辆能够减少90%的交通致死率;但正如同道德领域本身,剩下那10%究竟应如何处置仍旧有待商榷。

本文译自 popsci,由译者 蛋花 基于创作共用协议(BY-NC)发布。


给这篇稿打赏,让译者更有动力
支付宝打赏 [x]
您的大名: 打赏金额:

0.0
赞一个 (34)

TOTAL COMMENTS: 92+1

[2] 1 »
  1. 3000819

    其实如果站在车子的角度思考的话问题会变的简单许多。车子本身是安全性能较高的代步工具,而驾驶员则是自己的主人或主人授权的人。那么在这种情况下,在竭尽全力保证不伤害到他人的情况下保证驾驶员的安全既是车子的行事准则。那么问题来了,如果车子是偷来的呢?

  2. 水纷飞
    @2 years ago
    2970236

    有意思,竟然有90层那么多的讨论。这个问题基本上就是“个人主义”和“功利主义”之间的简单碰撞,实际上也并不存在对错,哈弗公开课《公平与正义》第一课即讨论了这个问题。回到开车上,即便交由一个纯粹的功利主义者编写自动驾驶程序,如何评判车上人员和可能被撞的人员的价值?残酷一点讲:假设车上的乘客是1个诺奖获得者而前方可能被撞人员是10个ISIS成员,请问驾驶程序怎么判断?

  3. 不明所以
    @2 years ago
    2970213

    说的啥东西,乱七八糟的 编辑完自己没读读呀

  4. 多云天气
    @2 years ago
    2969918

    预防和保护,发展弹射,前方行人安全气囊,吸能材料

  5. 旋转的指南针
    @2 years ago
    2969724

    说的好像人就能判断出一个正确答案一样。

  6. 2969348

    其实只要把所有汽车限速成乌龟就好,这样可以即踩即刹,也不会产生刹车距离,就不用选择杀谁了,世界也会变得更美好。(WTF

  7. 2969267

    把路上的人都当成SB吗,随便撞,轻松躲

  8. 牡丹
    @2 years ago
    2969261

    由保险公司参与制定模型设计,基本上会最大限度控制损失总量

  9. 屎壳郎
    @2 years ago
    2969230

    @凉茶: 有一种情况就叫意外,双方都无过错时,那还应该牺牲谁?

  10. 哦啦啦
    @2 years ago
    2969216

    我想说,不保护乘客的车子,会有很多人买?到时候修车场会不会多一个生意:帮你把保护路人的程序改成保护乘客?

  11. 怪事
    @2 years ago
    2969154

    为什么不按喇叭?

  12. wxd356
    @2 years ago
    2969106

    @凉茶: 有时候是车子的某个部件失灵了,这时候要在无过错的两方之间做出选择

  13. frank王
    @2 years ago
    2969044

    保护车内的乘客高于一切!都想啥呢

  14. 2968985

    既然是事故,你还以为有选择?

  15. 杍墨
    @2 years ago
    2968979

    其实出现这个情况的时候已经晚了,自动驾驶汽车就是可以在这种情况出现前提前采取措施,只有人类走神的时候才会导致这种情况出现

  16. sipanda
    @2 years ago
    2968904

    后面的同样无人驾驶的车辆也会根据前面车辆的减速启动同样的刹车流程。没有什么好担心的。唯一担心的只是刹车的硬件能力罢了。

  17. 碧海
    @2 years ago
    2968901

    @lw_wl: 这个才是正解!前面有人,车速慢就刹车,车速快就保持方向,就这么简单——深究起来,很怀疑这篇文章,本来就是用来黑无人驾驶的。

  18. sipanda
    @2 years ago
    2968900

    反正刹车就是了,ai判断速度不知道比人快多少。至于能不能刹住,这就无关司机与程序猿的事了。正常情况不会出现选择杀哪个这种问题。就算有人跌出路面,所有车辆都能在人倾倒进道路被传感器检测到的瞬间根据车速启动刹车流程,甚至可能人还没倒地车已经停好。

  19. 飞猪的翅膀
    @2 years ago
    2968878

    @lw_wl: 说的有理, 虽然到底撞谁这个哲学问题是确实存在的. 但是现实中的紧急情况下车的运动方向并不是人或者AI能够完全控制/预测的. 最保险的情况永远都是保持原来方向并且刹车.

  20. 普利奈尔
    @2 years ago
    2968873

    坐等未来圣母病患者街头抗议被压死。

  21. 2968850

    无论你打不打方向盘,你前面的人都得死,打与不打的区别只在于你自己要不要一起死而已!

  22. 2968849

    高速中还能选择撞谁? 开什么玩笑! 交警给你的考试材料里早就有了答案!
    答案就是不能打方向盘,只能减速。

    你以为选择权在你手上吗? 太天真了。高速中只要你强行短距离改变前轮的方向,车子马上就能翻腾起来,向哪个方向翻腾你知道吗?向原来的直线方向翻腾,也就是不管你有没有紧急打方向盘,都会撞死你行驶直线方向前面的人,更要命的是你这个急转必须赔上自己的生命!

    驾照考试题都明确了,高速公路突发状况,不能强打方向,必须直线内制刹车。换句话就是撞你前面的人,不管他周围前后左右有人 还是没人。

    [11] XX [0] 回复 [0]
  23. 非典猫
    @2 years ago
    2968791

    @周日游鱼: 但是问题在于编写AI的人不打算背这个锅

  24. HELLKEEPER
    @2 years ago
    2968782

    它如果能清晰准确地做出关于结果的判断,比如会怼死人吗,会怼死几个,那它的AI应该足以规避这些事情了吧。

  25. you_know_who
    @2 years ago
    2968741

    其它我不知道,高速行驶中遇到猫啊狗啊小鸡仔啊,方向不要打,只有冲过去!

    不能拿自己和车上人的生命去冒险!

  26. 周日游鱼
    @2 years ago
    2968711

    @penguin: 你这个回复,嗯,恕我直言,有点太理想化了(其实我想说,有点像学校里一样不切实际了,勿怪啊)。虽然有一些并没有成文化,但毕竟人类驾驶已经有了明确的做法,自动驾驶AI,说白了就是对这种情况的模拟——因此,我可以想象到的是:无人驾驶AI的试行,将促使这些没有成文化的规则被明确提出来,也可以想象得到会引起激烈的争论,但最终毕竟变为明文规定——所以,编写AI的人,可能会在初期受到指责,毕竟他们吃了螃蟹嘛,但很快就会逃脱这一命运,因为相应的法规就会跟上来了。

  27. jiandan
    @2 years ago
    2968696

    首先,应该绝对把保护司机做为最基本原则

  28. 2968652

    我,机器人里面那个选择,其实是正确的

  29. 白尾猫
    @2 years ago
    2968633

    记得小说里讨论过更深刻一点的问题:1个小孩在停用的轨道上玩耍,70个不听话的小孩在列车将要经过的轨道上玩耍,你可以扳动扳手来让火车变道,那么你是选择救70个不听话的小孩还是那个听话的小孩?

  30. 煎蛋
    @2 years ago
    2968632

    自爆,全部消灭就好。

  31. 淋淋仔
    @2 years ago
    2968613

    以后中国式过马路会发扬光大

  32. 百得
    @2 years ago
    2968600

    我会计算、比较颜值的,亲!

  33. liangzi
    @2 years ago
    2968533

    1. 10个人和1个人,不一定必然存在一方是违反交通规则的。
    2. 交给市场解决的问题是,有可能B型车才是允许被进入市场的。

  34. limeng
    @2 years ago
    2968472

    可以用另一个看似不相关的问题来解决:你母亲和你女朋友同时落水都不会游泳,你救哪一个?
    我记得当时说的答案是:救你母亲。因为你们是有亲属赡养救助义务关系的,你女朋友和你却没有这个关系。如果不救你母亲的话,会有不作为过失。
    在自动驾驶车的这个问题上,车辆是有保护驾驶员与乘客的安全义务的。所以驾驶员与乘客的安全优先级绝对是更高的。
    有关功利主义,对于功利主义的崇尚,为了多数人的生命或幸福,可以牺牲少数人的想法,已经是属于蛮荒时代的行为了。最典型的就是古罗马斗兽场的例子:牺牲一个人,娱乐上万人。这种体系极不公正,已经被(西方)现代司法体系给摒弃了。代替的是对每一个个体的尊重。但是这个矛盾一直存在,也是好莱坞电影的一大主题,那些为了救大家而杀死一两个无辜的人,都是走错路的“好人”干的,但是自我牺牲又是OK的。。比较复杂。

  35. 今天疯
    @2 years ago
    2968465

    这个问题最后就会演变成另一种“天网”吗?
    保存全部人类,最后人类压垮地球,导致人类灭亡;
    或者牺牲部分人类,使地球能够可持续存在,人类被控制在一个合理数量内持续存在。
    最后由全球医疗机器人决定:每死掉一个人,才允许有一个新生儿存活,多余的全部消灭。

  36. 地狱的害虫
    @2 years ago
    2968460

    不优先保护乘客鬼才会买啊····

  37. penguin
    @2 years ago
    2968444

    想起了一个无聊的问题。如果前面有一条狗和路人,你会撞那一个?狗…?当然是刹车,你这一个冷血的人!!!

  38. 2968443

    自动驾驶汽车当然是应该是保护乘客的

    自动驾驶的汽车本来就已经被规则固定了不可能违反交通规则的

    即救乘客是无过错的行为

    而救另一方则可能是有过错的行为

  39. penguin
    @2 years ago
    2968441

    @碧海: 如果是人类驾驶,驾驶者当然会听天由命,因为他未必有能力即时作出决定,也未必有足够的精神。但如果是AI,就可以由程序员预先决定,AI就会在那一刻跟随程序来走,所以和天没有什么关系。这是程序员的烦恼。

  40. 2968440

    @要十载: 啧,doublespeak.~_~

  41. 饕餮
    @2 years ago
    2968439

    @碧海: 作为人类当然对这种事情无能为力,应急情况下只能听天由命。但是作为自动驾驶车辆,杀死谁是一个可以提前理性决定的问题。在这种情况下,伦理问题必须要严格论证。另外,如果你自己开车,无论撞死别人还是撞死自己,一切后果由你自己承担。但是自动驾驶车辆撞死人,后果由司机承担是不合逻辑的。而由AI作为责任人又是不合理性的,所以唯一的解决方式是由程序设计者(或公司)作为责任人(至于要承担多少责任那是另外的问题,就像你出车祸就算你不用赔偿你也是责任人)。在这种情况下,程序设计者必须要最小化可能承担的责任,这就涉及到杀死谁量刑更轻的问题。所以对于设计者与立法者来说这都是至关重要的问题

  42. 饕餮
    @2 years ago
    2968426

    这个问题的出现并不只是对于交规的违反。这种伦理悖论的出现可以来自个人意外(失足掉下马路),人为疏忽(管理方未告知自动车辆前方在施工),人为干扰(仇家把你推下马路),技术故障(刹车失灵)。你们认为非主观违规也该死吗?因为你被人推下马路而违反交规你就觉得你的生命权比司机低了吗?这完全不是谁违规的问题

[2] 1 »

发表评论


24H最赞