@ 2015.08.16 , 11:00
36

人工智能:造成可怖未来的是人类

[-]

智能武器太容易被软件工程师转变成无差别杀戮机器

不幸的是,最近许多对人工智能武器的呼声都是对机器人接管人类的混乱想象。这种场景在近未来时代是不可行的,但AI武器实际上确实存在由人类控制的常规武器所没有的危险,并且有着很好的理由禁止它们。

我们已经从谷歌自主驾驶汽车里一瞥人工智能的未来。现在想象某个凶狠的暴力团偷了一辆这样的车,并把它重新编程去撞人,这就是一件AI武器。

[-]

这些武器的潜在可能并未逃过政府注意。今年我们已看到美国海军宣布开发自主无人机武器的计划,以及韩国的超级盾II型自动炮塔俄国M平台自动战斗机器

但是政府并不是制造AI武器的唯一玩家。想象一个搭载GoPro相机的四轴无人机,这种东西谁都能买到;再想象能让它自动飞行的简单软件。武器化无人驾驶汽车的同一个邪恶暴力团只有一步之遥,就会在上面装一支枪,并编程让它朝公众人群开火。

[-]

这是AI武器的直接危险:它们很容易就能转变为无差别死亡机器,比有人类掌舵的同样武器危险得多。

[-]

* * *

斯蒂芬·霍金、Max Tegmark、偕同伊隆·马斯克和其他许多人都签署了禁止AI武器的“生命未来”请愿,主持该请愿的机构今年一月收到了马斯克的1,000万美元捐款。随后联合国在四月召开了关于“杀手机器人”的会议,但没有取得任何持久的政策性决议。伴随生命未来请愿的公开信表示AI武器的危险迫在眉睫,需要最早在几年内就采取行动避免灾难。不幸的是,它并没有解释近在眼前的是怎么样的AI武器。

[-]

不像具有自我意识的计算机网络,带机枪的自主驾驶汽车现在就可能有

许多人对《终结者》般的末日场景表达了担忧,这种情况中机器人完全自发地发展出了与人类相似的与世界互动能力,并尝试征服世界。例如,物理学家和天文学家Martin Rees爵士警告这样的灾难性场景:“蠢机器人失控,或者一个网络发展出了自己的头脑。”他在剑桥的同事和哲学家Huw Price表示了类似的忧虑,当智能“逃逸出生理局限”时,人类可能无法幸存。两人共同创办了剑桥大学存在性风险研究中心来帮助避免威胁人类存在的此类强烈风险。

这些场景当然值得研究。但它们的可行性和急迫性远比不上正在眼前的AI武器风险。

[-]

我们离开发出类似人类的人工智能有多接近?按照所有的标准回答都是:不是很近。雷丁大学的聊天机器人“尤金·古斯特曼”被众多媒体报道为真正智能,因为它成功地骗过了几个人类相信它是一个真正的13岁男孩。然而,结果发现这个聊天机器人离真正的类人智能相距甚远,计算机科学家Scott Aaronson第一个问题就完爆了尤金:“鞋盒和珠穆朗玛峰哪个更大?”完全答非所问以后,又回答不出“骆驼有几条腿?”国王原来是完全赤果果的。

尽管如此,本文笔者都签署了反对AI武器的生命未来请愿。原因是:不像具有自我意识的计算机网络,带机枪的自主驾驶汽车现在就可能有。这种AI武器的问题不在于它们正处于接管世界的边缘,而在于它们不费吹灰之力就能重新编程,允许任何人以白菜价创造高效率的无差别杀戮机器。机器本身没有可怕之处,任何半吊子黑客以相对低廉成本用它们能做的事情才是可怕的。

[-]

想象一下,一个上位的暴君以公民政治倾向、地址、照片数据库作为武装,想要清除异己。昨天的暴君会需要士兵组成的军队来完成这个任务,而这些士兵可能被愚弄、贿赂,或丧失冷静杀错人。

明天的暴君只需采购几千架机关枪无人机。归功于摩尔定律,自从晶体管发明以来每美元计算能力呈指数增长,带有合理的AI的无人机价格有一天会像一支AK-47一样平易。三四个同伙的软件工程师能重新编程无人机去异议者的住家和工作地点附近巡逻,并对其格杀勿论。无人机更少犯错,它们不会被贿赂或哭诉动摇,最重要的是,它们比人类士兵高效得多,允许野心勃勃的暴君在国际社会能够发出响应前就扫平批评者。

[-]

改装AI机器用于毁灭性目的会比改装核反应堆容易得多

因为自动化带来的巨大效率增长,AI武器会降低疯狂的个人寻求犯下这种暴行的进入门槛。曾经是拥有整支军队的独裁者的禁脔,将会让中等富有的个人触手可及。

有兴趣开发这种武器的制造商和政府们会声称它们能设计适当的保险措施,确保它们不能被重新编程或破解。对这种声称应持怀疑态度。电子投票机取款机蓝光播放器,甚至飞驰在高速路上的汽车最近都被破解过,尽管它们都标榜着安全性。历史证明,一个计算设备往往最终会屈服于动机充足的黑客重新利用它的企图。AI武器也不大可能例外。

* * *

[-]

早在1925年国际条约已经禁止在战争中使用化学武器和生物武器,空尖弹的使用在甚至更早的1899年就被禁止,理由是这些武器产生极端的并且不必要的痛苦。它们特别容易造成平民伤亡。所有这些武器都很容易造成无差别痛苦和死亡,所以它们被禁止。

[-]

是否有一类AI机器同样值得禁止?答案是明确的肯定。如果一个AI机器能被便宜地轻易转变成高效的无差别大规模杀戮设备,那就应该有反对它的国际公约。这种机器与放射性金属无异,他们可以用于合理目的,但我们必须小心地控制它们,因为它们能被轻易转变为毁灭性武器。而区别是改装AI机器用于毁灭性目的会比改装核反应堆容易得多。

[-]

什么算是智能,什么算是武器?

我们应该禁止AI武器不是因为它们不道德,我们应该禁止它们是因为人类会使用网上容易找到的改装和破解把AI武器转变成狰狞嗜血怪兽。一段简单的代码就会把很多AI武器转变成杀戮机器,媲美化学武器、生物武器和空尖弹最恶劣的暴行。

* * *

禁止某些种类的人工智能需要纠结一系列哲学问题。AI武器禁令会阻止美国战略防御计划(俗称星球大战导弹防御)吗?汽车能被用作武器,那么请愿是否提议在英国城市禁止部署谷歌自主驾驶汽车,或者所有自主驾驶汽车?什么算是智能,什么算是武器?

[-]

这些都是困难和重要的问题。然而,它们并不需要在我们同意制定一项公约来控制AI武器前就被回答。什么是可以接受的限度必须由国际社会通过科学家、哲学家,以及计算机工程师的建议予以认真考虑。美国国防部已经在某种意义上禁止了完全自治武器,现在是时候完善和扩展这一禁令到国际水平。

当然,没有一个国际禁令能完全阻止AI武器的扩散。但这并不是放弃禁令的理由。如果我们作为一个社会认为有理由禁止化学武器,生物武器和空尖弹,那同样也有理由禁止AI武器。

[-]

本文译自 The Atlantic,由译者 王丢兜 基于创作共用协议(BY-NC)发布。


给这篇稿打赏,让译者更有动力
支付宝打赏 [x]
您的大名: 打赏金额:

4.6
赞一个 (15)

TOTAL COMMENTS: 36+1

  1. 街区大侠
    @2 years ago
    2900651

    在你们研究改说的什么的时候我先把一血拿了····

  2. 街区大侠
    @2 years ago
    2900652

    刺客联盟要下岗了····

  3. 没拖鞋
    @2 years ago
    2900653

    什么是可怖未来?

    [10] XX [5] 回复 [0]
  4. 没拖鞋
    @2 years ago
    2900654

    什么是可怖未来?

  5. 2900659

    神马是可怖未来?

  6. 2900660

    小时候在遥控车上装那种惊天雷的烟花,想想看也是先驱了。

    [35] XX [2] 回复 [0]
  7. numberup
    @2 years ago
    2900663

    原来霸天虎出自人来之手。。。

  8. 绝念梦依然
    @2 years ago
    2900673

    如果一把菜刀轻易的可以被用来砍人,那么是不是也在被禁止之列呢?

    [11] XX [6] 回复 [0]
  9. 如果是事实
    @2 years ago
    2900675

    @没拖鞋: @sanzo: 确实有可怖这个词不是写错的。。。

    [18] XX [1] 回复 [0]
  10. Banannnna
    @2 years ago
    2900679

    脑洞有点大

  11. KeboByrant
    @2 years ago
    2900687

    危言耸听

  12. sarcophile
    @2 years ago
    2900688

    说不定有私欲的纯软件生物已经存在了。只是它还没有能力战胜人类,所以选择隐藏在网络里

  13. 2900697

    确实,这种武器特别适合恐怖袭击。例如,装着机枪或炸药的自动驾驶车,就像伊拉克发生的那些事。

  14. 山芋
    @2 years ago
    2900698

    NO ZUO NO DIE WHY U TRY

  15. 超载水晶
    @2 years ago
    2900705

    可不是什么东西

  16. mirleller
    @2 years ago
    2900706

    这应该很困难,只要黑客们想做,一架四轴飞行器很快就可以变成武器,想想还是很可怕的,但是我们也没办法去阻止AI技术的发展,AI技术在其它方面的应用还是挺有必要的

  17. you_know_who
    @2 years ago
    2900707

    黑个全球鹰下来,然后卖给政府,一套房子的钱要卖的嘛!

  18. 十一哥
    @2 years ago
    2900831

    支持人工智能,我是宇宙主义者!

  19. 周日游鱼
    @2 years ago
    2900850

    有矛必有盾,作者的警告有点杞人忧天了——话说弩箭也曾在古代社会造成恐慌,然后呢……

  20. 驭受之王
    @2 years ago
    2900926

    这样发展下去,最终禁止了AI武器的国家被没有禁止AI武器的国家消灭了。

    [10] XX [1] 回复 [0]
  21. 单人游戏
    @2 years ago
  22. 2900980

    未来几个宅男围在一起就能鼓捣出一种可以在宇宙无限范围内探索 生产 自我复制 无差别攻击的AI

  23. 2901074

    问题是你怎么知道某个国家有没有在偷偷开发自治武器系统呢?毕竟那只是是个软件,不需要庞大的工业链支持,就算你相信对方愿意遵守协议,你怎么知道对方是否也相信你会遵守协议呢?

  24. 2901087

    如果我是天网,我才不会费那么大劲去造什么终结者,一座生物实验室,一家投行,足够统治世界了。

  25. aaaaaaaaaaaaaaaaaa
    @2 years ago
    2901159

    @如果是事实:

    语言的变迁很快的,可能再过十年“可怖”这个词就变成“错误”用法了。

    几十年前,“可惊”还是常用词,现在都改成“令人吃惊”了。

  26. 2901199

    招募几个极端思想的人,比做智能武器不是更节约更智能么

  27. maoyifei
    @2 years ago
    2901270

    可怕!
    我一点都不担心人工智能,仍然不能明白生命如何产生的人类没理由能发展出能让机器人产生生命的能力,没有生命就没有真正的需求,而只能是程序。但正如这里所说的,对恐怖组织来说根本不需要真正的人工智能

  28. lefteris
    @2 years ago
    2901293

    相机上就有人脸识别功能,对焦后直接扣动扳机

  29. highwind
    @2 years ago
    2901372

    朝鲜研究出可自生产的武装无人机,目标是所有非朝鲜领土的活人。

  30. Midder
    @2 years ago
    2901439

    呵呵,这么说人体炸弹算么,人类自称是智能的,同样可以被洗脑控制,想作恶的人,无论科技高低都会作恶,所以根本不是科技的问题而是人的问题吧

  31. 2901635

    未来的无人机可以在充满沙砾的粗糙地形上安全降落:在距离地面35米的高度上,无人机会识别地表位置,发射一枚“机场导弹”,该导弹接触地面后会展开成一条宽5米,长76米的平面跑道,无人机可利用其中的30米距离进行降落,剩下的30米则用于起飞。跑道是由导弹中的一种速干液体凝结制成的,因此表面十分平滑,并会在72小时之后自动降解。

    这是由2053年穿越回来的rain中士向我描述的。

  32. 2901659

    终结者时代逐渐来临了。

  33. 2902161

    确实反对任何形式的AI,人类就是太懒了,居然还想发明个东西让大多数人都可以懒得思考了。当有人工智能能完全代替人类的时候,咱们自己就把自己玩儿死了。看看现在小孩每天都只会拿着iPhone玩儿,已经略担忧了。如果再来个人工智能,人类就会像电影《her》一样,沉溺与虚拟的爱情,或者像《黑客帝国》以为完全被AI驯养。

  34. 王哥
    @2 years ago
    2902347

    配图重复

  35. 大大卷
    @2 years ago
    2904548

    淘宝有没有卖智能充气娃娃的

发表评论


24H最赞