@ 2015.08.01 , 12:46

为什么我们不应该禁止杀人机器

[-]

超过12,000位知名人物联署公开信呼吁禁止人工智能杀人机器,以及要求联合国作出同样禁止。这是被误导的,甚至是莽撞的。

等等,被误导?莽撞?让我先提供一些上下文。我是一名机器人学研究员,花费了大部分职业生涯阅读和写作军用机器人相关,并助长了我现在强烈反对的这一非常恐慌的运动。

在这些辩论的早期,我甚至还是机器人武器控制国际委员会(ICRAC)和反杀人机器运动几百名支持者之一。

但是我改变主意了。

为什么有如此激进的观点转变?简短的说,我认识到了如下几点:

人类连接

联署人只是在危言耸听,试图禁止“无需人类干预选择目标和交战的”自主性武器,他们说会在“几年,而不是几十年”内来到你身边的战场上。

但是,当你批判性地去想一下,没有机器人真的能无需人类干预杀死人类。是的,机器人可能已经能够使用看上去类似人类使用的复杂机制杀死你们人类,意思是人类不一定需要在使用一个致命系统的时候在旁监视。但这并不意味着环节里没有人类涉及。

[-]

我们能给大脑、人类学习和决策建模到如此地步,以致这些系统看似有能力生成创造性方案来杀死人类,但其实人类积极参与了这个过程。

事实上,无视程序员、认识科学家、工程师和其他参与建造这些自主性系统的人员是荒谬的。即使我们这样做了,作出使用系统决定的指挥者、军队和政府又如何?我们应该也无视他们吗?

我们已经有了自动杀人机器

我们已经有了正在寻求禁令的这种武器。

比如澳大利亚海军多年来以近距离武器系统(CIWS)的形式已经成功部署了高度自动化武器。这些系统实质上是能够每分钟发射数千发弹药的炮,或者是由计算机系统自主控制,或者是人工控制,他们被设计来为水面舰艇提供针对反舰导弹的最后一道防线。

在自主交战时,CIWS执行通常由其它系统和人类执行的功能,包括搜索、探测、威胁评估、获取、瞄准和摧毁目标。

如果按照联署者们的逻辑,该系统会落入公开信提供的定义。但你没听说过谁反对这些系统。为什么?因为他们在遥远的海上作业,而且仅仅是以防万一有物体以敌对方式接近,通常情况下是在以高速向舰船方向落下。

这就是说,在它们作业的环境和上下文中杀死无辜平民的风险近乎为零,比常规战斗小得多。

所以,为什么我们不能关注规定在最特定和狭窄情况下使用它们的已有法律?

真正的恐惧是不存在的有思维机器人

看来,动员了12,000多位个人联署反杀人机器请愿书的真正忧虑不是无需人类干预选择目标和交战的机器,而是有知觉机器人的发展。

鉴于过去一个世纪中的技术进步,很容易恐惧有思维的机器人。我们确实在70年间从第一次有动力飞行跳跃到了太空飞行,所以再多有一些时间我们为什么不能创造出一个真正智能的机器人?(或者只是自主到无法让一个人类承担责任,但还没自主到足以让机器人自己承担责任)

有一些很好的理由这永远也不会发生。一个解释可能是我们拥有机器就是不能复制的灵魂。虽然这往往是神灵人群的偏好,还有其它自然上的解释。比如,某些脑部过程本质上是不可计算的或不可算法化的,所以不可能真正复制

[-]

一旦人们理解我们今天可以设想到的任何系统——不管它是否有学习能力或进行高度复杂操作——都是编程和人工智能程序的产物,都能追溯回其程序员和系统设计师,并且我们永远不会有真正的有思维机器人,应该清楚,对于杀人机器人的全面禁令的论点是站不住脚的。

谁会按规矩出牌?

联合国禁令几乎没有什么用。只要去问任何一个被新埋下的反人员地雷炸掉一条腿的人就知道。在这件事情上杯具的事实就是“坏人”不会按规矩出牌。

现在你能理解我为什么改变了主意,我提请杀人机器人请愿的联署者们注意这几点,重新考虑其立场,并在针对其实只是高度自动化系统的更有效、更实际的监管的争论中,和我一起加入“黑暗面”。

[-]

本文译自 The Conversation,由译者 王丢兜 基于创作共用协议(BY-NC)发布。


给这篇稿打赏,让译者更有动力 !
支付宝打赏 [x]
您的大名: 打赏金额:

0.0
赞一个 (7)

24H最赞