@ 2015.08.01 , 00:10
29

霍金等学者呼吁警惕人工智能军备竞赛

[-]
Shutterstock

斯蒂芬·霍金,伊隆·马斯克等一千多名学者、研究者和公众人物警告我们:除非对自治性武器施加禁令,全球性的机器人军备竞赛“几乎不可避免”。

在布宜诺斯艾利斯举行的国际人工智能联席会议上,生命未来研究所呈交公开信表达了顾虑:“开始一场人工智能军备竞赛不是一个好主意,并且应该通过禁止不受人类有意义控制的进攻性自主性武器来阻止。”

虽然这封信指出“我们相信人工智能有潜力在很多方面有益于人类,而且该领域的目标理应如此,”但它总结到“这种技术的轨迹是清晰的:自主性武器会成为明天的卡拉什尼科夫冲锋枪。”

在公开信里加入霍金教授和SpaceX创始人伊隆·马斯克的还有苹果联合创始人史蒂夫·沃兹尼亚克,Sky Jaan Tallinn联合创始人语言学家Noam Chomsky,和人权观察组织武器分部总监Stephen Goose。

英国称它并未在开发致命性人工智能,但是建造这种武器的潜力已经存在并在飞速发展——美国军方最近委托的一份关于战争的未来的报告预测到2050年“机器人集群”将无处不在。作为回应,马斯克等专家和公众人物已经三番五次呼吁限制致命性人工智能的研发。生命未来研究所在六月宣布它将用马斯克捐赠的一千万美元资助37个致力于保持人工智能“有益”的项目,其中150万美元专门用于建立英国牛津剑桥等大学的新研究中心。

最新的这封公开信将自治性武器描述为那些“不需要人类干预就能选择目标和交战”的武器,包括能够搜寻和杀死人类的四旋翼无人机,但不包括遥控导弹或无人机。它也列出了偏好这些机器的常见的辩护,例如减少士兵伤亡。

但对于签署公开信的学者和名人们来说,人工智能武器的潜在危险超过核弹。

“不像核武器,它们不需要昂贵成本或难以获取的核材料,因此它们会变得廉价和无所不在,任何主要军事强国都能大规模生产。它们出现在黑市上和恐怖分子、想更好控制其民众的独裁者、想犯下种族清洗的军阀等等的手中,只是时间问题。

“对于暗杀、颠覆国家、征服人口和选择性屠杀特性族群等任务,自主性武器非常理想。因此,我们认为军用人工智能军备竞赛对人类毫无益处。”

公开信也指出绝大多数人工智能研究人员不想通过为致命性人工智能做贡献而“玷污他们的领域”,以及在此“过程中可能造成公众对人工智能的强烈反弹,以至于限制其未来的社会益处。”

“事实上,化学家和生物学家们已经广泛支持了成功禁止化学和生物武器的国际协定,同样大多数物理学家也支持了禁止天基和武器和致盲激光武器的条约。”

[-]
X-47B/Wolter/US Navy/Reuter

部分由于受反自治性武器组织施压,联合国今年早些时候对全球性禁止致命性自治武器的可能性进行了辩论。其中英国投了反对票。外交部指出“目前,由于国际人道法已经在该领域提供了足够的监管,我们看不出立法禁止的必要。”

也是在今年早期,加州大学伯克利分校的计算机科学教授Stuart Russell在《自然》期刊上写道:美国DARPA的委托的两个项目如果成功将会“预示着杀人机器人的计划使用”,并会潜在地违反日内瓦公约。

Russell说:“随着飞行机器人变得更小,它们的机动性增强,而且更不容易被击落,它们的续航较短,但大小足够携带致命的有效载荷——也许是能击穿人类颅骨的一克聚能炸药。”

[-]
人类控制?

本文译自 Wired,由译者 王丢兜 基于创作共用协议(BY-NC)发布。


给这篇稿打赏,让译者更有动力
支付宝打赏 [x]
您的大名: 打赏金额:

4.6
赞一个 (13)

TOTAL COMMENTS: 29+1

  1. 居然有人
    @2 years ago
    2884171

    我一直觉得现在那些霍金说了什么什么 都是假借霍金之口

    [75] XX [5] 回复 [0]
  2. Goukou
    @2 years ago
    2884180

    第一时间想到的就是天网

  3. 澡哲
    @2 years ago
    2884219

    @居然有人: 霍金也希望是这样

  4. 强袭钢大木
    @2 years ago
    2884225

    自主性武器的威胁是超过核武器的!——马云

    [24] XX [0] 回复 [0]
  5. 路人甲的弟弟
    @2 years ago
    2884226

    马云说得对。——鲁迅

    [50] XX [0] 回复 [0]
  6. 天や罚
    @2 years ago
    2884228

    COD8遥控小坦克

  7. 客卿
    @2 years ago
    2884258

    毁灭地球和人类就靠大家了,大家加油!!!

    [12] XX [2] 回复 [0]
  8. 无名小卒
    @2 years ago
    2884268

    @路人甲的弟弟:
    鲁 连细而黠
    迅 濑从天急
    说 剑增慷慨
    的 的三年梦
    好 胜耽长行

  9. sipanda
    @2 years ago
    2884296

    机器人没有心。

  10. dorono
    @2 years ago
    2884307

    因噎废食

  11. 2884312

    各国自从听说危险性超过核弹,研究的更勤了

    [37] XX [0] 回复 [0]
  12. 风大算吊毛
    @2 years ago
    2884317

    不作不死啊,照目前消耗资源的速度,地球应该打算淘汰人类了

  13. 2884320

    COD11,,,,

  14. highwindmx
    @2 years ago
    2884322

    就是因为人工智能制造的是不过是更多的“人”意义上的东西,所以才会变得危险。

  15. 你爸爸
    @2 years ago
    2884327

    霍金老爷我们保证不会搞你的轮椅的放好了

  16. 2884364

    本来霍大没说之前还好,这么一提醒。2333

  17. 恋歌
    @2 years ago
    2884383

    (☆_☆)说白了他们还是机器

  18. 九猫
    @2 years ago
    2884419

    霍金等人反对的是“竞赛”,是“军备竞赛”,也就是说,只要一家独大,人工智能军事化无论多严重都没有关系……我猜打算留下的这某一家必定是在灯塔国

  19. smtp1918
    @2 years ago
    2884445

    鲁迅瞎JB说 —–爱因斯坦

  20. 2884466

    @居然有人: 现在霍金说的那些话,是霍金本人说的,还是霍金的轮椅AI说的?

    [32] XX [0] 回复 [0]
  21. neddy456
    @2 years ago
    2884554

    @居然有人: 著作不是没有,他的观点都是有据可循的。而最近所谓关于人工智能的言论发表也是出自BBC的专访。

  22. 今天疯
    @2 years ago
    2884555

    @居然有人: 是的,霍金的电脑已经被黑了,但是只有他自己知道打出的那些句子根本不是他想要说的。。。

  23. 卤鸡屁股
    @2 years ago
    2884578

    如果某国偷偷放出一批自主杀人机器,然后就可以一边喝茶一边看屠杀直播,没人知道是谁干的。

  24. 2884585

    @卤鸡屁股: 国际社会追查源头,发现是富士康组装的配件

  25. 2884651

    Norm Chomsky,乔老爷无处不在

  26. chobits
    @2 years ago
    2884870

    天网: 我就看看,我不说话

  27. 孖孖
    @2 years ago
    2884935

    人类的敌人不是自己

  28. 称呼太长
    @2 years ago
    2885000

    没事找点存在感

  29. 东经
    @2 years ago
    2885464

    中国科学家表示:那我们还能干啥

发表评论


24H最赞