@ 2015.08.01 , 12:46
30

为什么我们不应该禁止杀人机器

[-]

超过12,000位知名人物联署公开信呼吁禁止人工智能杀人机器,以及要求联合国作出同样禁止。这是被误导的,甚至是莽撞的。

等等,被误导?莽撞?让我先提供一些上下文。我是一名机器人学研究员,花费了大部分职业生涯阅读和写作军用机器人相关,并助长了我现在强烈反对的这一非常恐慌的运动。

在这些辩论的早期,我甚至还是机器人武器控制国际委员会(ICRAC)和反杀人机器运动几百名支持者之一。

但是我改变主意了。

为什么有如此激进的观点转变?简短的说,我认识到了如下几点:

人类连接

联署人只是在危言耸听,试图禁止“无需人类干预选择目标和交战的”自主性武器,他们说会在“几年,而不是几十年”内来到你身边的战场上。

但是,当你批判性地去想一下,没有机器人真的能无需人类干预杀死人类。是的,机器人可能已经能够使用看上去类似人类使用的复杂机制杀死你们人类,意思是人类不一定需要在使用一个致命系统的时候在旁监视。但这并不意味着环节里没有人类涉及。

[-]

我们能给大脑、人类学习和决策建模到如此地步,以致这些系统看似有能力生成创造性方案来杀死人类,但其实人类积极参与了这个过程。

事实上,无视程序员、认识科学家、工程师和其他参与建造这些自主性系统的人员是荒谬的。即使我们这样做了,作出使用系统决定的指挥者、军队和政府又如何?我们应该也无视他们吗?

我们已经有了自动杀人机器

我们已经有了正在寻求禁令的这种武器。

比如澳大利亚海军多年来以近距离武器系统(CIWS)的形式已经成功部署了高度自动化武器。这些系统实质上是能够每分钟发射数千发弹药的炮,或者是由计算机系统自主控制,或者是人工控制,他们被设计来为水面舰艇提供针对反舰导弹的最后一道防线。

在自主交战时,CIWS执行通常由其它系统和人类执行的功能,包括搜索、探测、威胁评估、获取、瞄准和摧毁目标。

如果按照联署者们的逻辑,该系统会落入公开信提供的定义。但你没听说过谁反对这些系统。为什么?因为他们在遥远的海上作业,而且仅仅是以防万一有物体以敌对方式接近,通常情况下是在以高速向舰船方向落下。

这就是说,在它们作业的环境和上下文中杀死无辜平民的风险近乎为零,比常规战斗小得多。

所以,为什么我们不能关注规定在最特定和狭窄情况下使用它们的已有法律?

真正的恐惧是不存在的有思维机器人

看来,动员了12,000多位个人联署反杀人机器请愿书的真正忧虑不是无需人类干预选择目标和交战的机器,而是有知觉机器人的发展。

鉴于过去一个世纪中的技术进步,很容易恐惧有思维的机器人。我们确实在70年间从第一次有动力飞行跳跃到了太空飞行,所以再多有一些时间我们为什么不能创造出一个真正智能的机器人?(或者只是自主到无法让一个人类承担责任,但还没自主到足以让机器人自己承担责任)

有一些很好的理由这永远也不会发生。一个解释可能是我们拥有机器就是不能复制的灵魂。虽然这往往是神灵人群的偏好,还有其它自然上的解释。比如,某些脑部过程本质上是不可计算的或不可算法化的,所以不可能真正复制

[-]

一旦人们理解我们今天可以设想到的任何系统——不管它是否有学习能力或进行高度复杂操作——都是编程和人工智能程序的产物,都能追溯回其程序员和系统设计师,并且我们永远不会有真正的有思维机器人,应该清楚,对于杀人机器人的全面禁令的论点是站不住脚的。

谁会按规矩出牌?

联合国禁令几乎没有什么用。只要去问任何一个被新埋下的反人员地雷炸掉一条腿的人就知道。在这件事情上杯具的事实就是“坏人”不会按规矩出牌。

现在你能理解我为什么改变了主意,我提请杀人机器人请愿的联署者们注意这几点,重新考虑其立场,并在针对其实只是高度自动化系统的更有效、更实际的监管的争论中,和我一起加入“黑暗面”。

[-]

本文译自 The Conversation,由译者 王丢兜 基于创作共用协议(BY-NC)发布。


给这篇稿打赏,让译者更有动力
支付宝打赏 [x]
您的大名: 打赏金额:

0.0
赞一个 (7)

TOTAL COMMENTS: 30+1

  1. aaaaaaaaaaaaaa
    @2 years ago
    2884586

    当作为杀人用途就不对了吧

  2. 2884587

    再打一边倒的仗的时候机器人因该很有用,势均力敌的话难道让机器人对打吗?浪费时间啊,打仗不大量死人怎么让一方投降

    [16] XX [10] 回复 [0]
  3. 光龙
    @2 years ago
    2884590

    最后的三个机器人我还是喜欢 那个亚裔的 -《卡拉狄加》

    [12] XX [2] 回复 [0]
  4. 十一哥
    @2 years ago
    2884592

    都有了核武器这不挺好的吗?总会有人拥有的时候就不如大家都有!

  5. 猫猫
    @2 years ago
    2884593

    @iyt: 资源战,生产机器人是需要资源的,双方机器人水平不一样时较弱一方的资源会很吃紧,接下来就是顺理成章的战败。

    [22] XX [1] 回复 [0]
  6. 开你妹的玩笑
    @2 years ago
    2884594

    欢迎来到程序猿峡谷

  7. 拜一刀
    @2 years ago
    2884602

    军方大量造杀人机器,结果黑客统治了世界,可喜可贺,可喜可贺

    [57] XX [3] 回复 [0]
  8. forvord
    @2 years ago
    2884606

    我觉得最理想化的战争模式是,两国最高领导人来一场公开拳击赛,以此论输赢。同时还允许平民投注压胜负,既有娱乐,也不浪费资源。

    [59] XX [14] 回复 [0]
  9. 2884607

    @forvord: 多国首脑会议出现争议时,那画面太美,不敢看。

    [10] XX [1] 回复 [0]
  10. 2884614

    有时候同情机器人。但它毕竟没感情

  11. 2884615

    科学记者无良炒作而已。人工智能?但凡学理工有点脑子的都明白离“智能”还差十万八千里呢

    [36] XX [10] 回复 [0]
  12. 2884630

    如果人类铁板一块的话 我举双手赞成哈 然而那也就没有必要研发这些杀人机器啦
    事实是大国们各怀鬼胎 作为一个表里如一的好人 我表示反对
    历史上各种 xx互不侵犯条约 真开战时 就是个p 完全没有约束力嘛 各种阳奉阴违
    鹰酱又快点满科技树了 又再说这个东西太危险 你就不要点了嘛
    呵呵 你有的 我兔也必须有

  13. 小学科学学生
    @2 years ago
    2884637

    也许这篇文章就是机器人写来混淆视听的

    [14] XX [2] 回复 [0]
  14. 2884640

    还记得那个视频吗 哒哒哒 keep shooting 哒哒哒 keep shooting…
    虽然画面无比粗糙 还是黑白的 延迟得有1秒多 手感不如大部分国产射击游戏
    但是 那目标是真人哎

  15. 2884646

    我还记得前段时间在煎蛋讨论机器人时,我说“有自主思维的机器人跟永动机一样永不可能实现”结果得到了n多xx,我现在想说,你们xx的根据是什么?

    [2] XX [17] 回复 [0]
  16. Kirisame
    @2 years ago
    2884703

    有论点无论据的信口之辞,还有脸问为什么叉你?

  17. 游客
    @2 years ago
    2884721

    @猫猫: 不认为比如毛子这样的民族会就这样认输

  18. 倪乐
    @2 years ago
    2884733

    如果不给真·人工智能设置三大定理,那么早晚有一天人类会被人工智能屠杀.

  19. 单人游戏
    @2 years ago
    2884754

    典型的科幻电影看多了,还人工智能呢,微软弄个小冰都这么多问题

  20. 风车雪花
    @2 years ago
    2884775

    都被电影里的人形机器人文化给荼毒了,就算真出来了也不会像电影里表现的那样,说不准还会有人给被歧视的独立智能机器人维权啥的

  21. 邪恶果酱
    @2 years ago
    2884795

    什么叫脑部过程?什么叫神灵人群?这么烂的翻译怎么就发表了?

  22. 八咫猪
    @2 years ago
    2884859

    不过关于人工智能的问题,存在这样一种可能,即产生智能并不需要模拟人类大脑的全部机能,因为智能可以不是类人智能

  23. GorgeousYaoyao
    @2 years ago
    2884880

    直觉告诉我,这篇很难搞,anyway, 小编辛苦了

  24. 2884904

    @邪恶果酱:
    brain process: 脑部的过程、处理、加工,没有约定俗成的译法。
    spiritual type: 信仰宗教或者虽无明确信仰但相信超自然力量的人群,尚无习惯译法,译作迷信也不合适。
    谢谢你的意见

  25. 你爸爸
    @2 years ago
    2884913

    @forvord: 领导人:当我狗腿子!打赢给你好处!
    然后世界大战爆发了

  26. 安眠药大叔
    @2 years ago
    2884930

    @forvord: 然后泰国总理和非洲军阀们统治了世界

  27. Mr_Wnn
    @2 years ago
    2885159

    有人拿原子弹的危害和知觉机器人的危害做类比。。。蛋疼的感觉。

  28. 2886237

    @Kirisame: 沙比,你有么?我的论据就是这篇文章。

  29. 2886320

    就算美国自己觉得不该造杀人机器人,它怎么知道中国不会造,就算它相信中国也认为不该造,它怎么知道中国也会认为美国不会造,就算……

  30. Overmind
    @2 years ago
    2887294

    三定律要写进程序里非让机器人死机不可

发表评论


24H最赞