@ 2015.08.01 , 00:10

霍金等学者呼吁警惕人工智能军备竞赛

[-]
Shutterstock

斯蒂芬·霍金,伊隆·马斯克等一千多名学者、研究者和公众人物警告我们:除非对自治性武器施加禁令,全球性的机器人军备竞赛“几乎不可避免”。

在布宜诺斯艾利斯举行的国际人工智能联席会议上,生命未来研究所呈交公开信表达了顾虑:“开始一场人工智能军备竞赛不是一个好主意,并且应该通过禁止不受人类有意义控制的进攻性自主性武器来阻止。”

虽然这封信指出“我们相信人工智能有潜力在很多方面有益于人类,而且该领域的目标理应如此,”但它总结到“这种技术的轨迹是清晰的:自主性武器会成为明天的卡拉什尼科夫冲锋枪。”

在公开信里加入霍金教授和SpaceX创始人伊隆·马斯克的还有苹果联合创始人史蒂夫·沃兹尼亚克,Sky Jaan Tallinn联合创始人语言学家Noam Chomsky,和人权观察组织武器分部总监Stephen Goose。

英国称它并未在开发致命性人工智能,但是建造这种武器的潜力已经存在并在飞速发展——美国军方最近委托的一份关于战争的未来的报告预测到2050年“机器人集群”将无处不在。作为回应,马斯克等专家和公众人物已经三番五次呼吁限制致命性人工智能的研发。生命未来研究所在六月宣布它将用马斯克捐赠的一千万美元资助37个致力于保持人工智能“有益”的项目,其中150万美元专门用于建立英国牛津剑桥等大学的新研究中心。

最新的这封公开信将自治性武器描述为那些“不需要人类干预就能选择目标和交战”的武器,包括能够搜寻和杀死人类的四旋翼无人机,但不包括遥控导弹或无人机。它也列出了偏好这些机器的常见的辩护,例如减少士兵伤亡。

但对于签署公开信的学者和名人们来说,人工智能武器的潜在危险超过核弹。

“不像核武器,它们不需要昂贵成本或难以获取的核材料,因此它们会变得廉价和无所不在,任何主要军事强国都能大规模生产。它们出现在黑市上和恐怖分子、想更好控制其民众的独裁者、想犯下种族清洗的军阀等等的手中,只是时间问题。

“对于暗杀、颠覆国家、征服人口和选择性屠杀特性族群等任务,自主性武器非常理想。因此,我们认为军用人工智能军备竞赛对人类毫无益处。”

公开信也指出绝大多数人工智能研究人员不想通过为致命性人工智能做贡献而“玷污他们的领域”,以及在此“过程中可能造成公众对人工智能的强烈反弹,以至于限制其未来的社会益处。”

“事实上,化学家和生物学家们已经广泛支持了成功禁止化学和生物武器的国际协定,同样大多数物理学家也支持了禁止天基和武器和致盲激光武器的条约。”

[-]
X-47B/Wolter/US Navy/Reuter

部分由于受反自治性武器组织施压,联合国今年早些时候对全球性禁止致命性自治武器的可能性进行了辩论。其中英国投了反对票。外交部指出“目前,由于国际人道法已经在该领域提供了足够的监管,我们看不出立法禁止的必要。”

也是在今年早期,加州大学伯克利分校的计算机科学教授Stuart Russell在《自然》期刊上写道:美国DARPA的委托的两个项目如果成功将会“预示着杀人机器人的计划使用”,并会潜在地违反日内瓦公约。

Russell说:“随着飞行机器人变得更小,它们的机动性增强,而且更不容易被击落,它们的续航较短,但大小足够携带致命的有效载荷——也许是能击穿人类颅骨的一克聚能炸药。”

[-]
人类控制?

本文译自 Wired,由译者 王丢兜 基于创作共用协议(BY-NC)发布。


给这篇稿打赏,让译者更有动力 !
支付宝打赏 [x]
您的大名: 打赏金额:

4.6
赞一个 (13)

24H最赞