@ 2018.04.07 , 11:00

韩国高校开发杀手机器人,遭全球AI专家抵制

韩国高校开发杀手机器人,遭全球AI专家抵制
credit: 锐景创意

机器人可以用来干家务,也可以用于暴力目的。如何划定机器人的用途界限?针对这个问题,人工智能(AI)领域产生了很大分歧。

韩国科学技术院(KAIST)是一所知名学府,拥有首屈一指的科学实验室。从液态电池到疾病传感器,他们开发了各式各样的东西。如今,KAIST和韩华集团签署协议,为后者研发人工智能武器。韩华集团曾无视联合国禁令,开发“集束弹药”这种毁灭性武器。如果加上人工智能,武器恐怕会更加致命。

目前,联合国正在商讨如何控制自主武器对国际安全造成的威胁,而KAIST却在加速这类武器的军备竞赛,这非常令人失望。因此,50多位全球顶尖AI专家决定抵制此举——他们宣布将拒绝和KAIST任何部门进行合作,直到KAIST保证绝不开发缺乏人类控制的自主武器。

对此,KAIST表示否认。院长Sung-Chul Shin发表声明:

作为学术机构,我们高度重视人权和道德标准。KAIST将不会开展任何违背人类尊严的科研活动,包括缺乏人类控制的自主武器。

如今,硬件和软件都发展得很快。许多专家担心,人类迟早会开发出自己无法控制的东西。因此,埃隆·马斯克、史蒂夫·沃兹尼亚克、斯蒂芬·霍金等名人呼吁政府和联合国限制依靠人工智能系统运行的武器。如果导弹、火箭、炸弹能够脱离人类控制而自行操作,那么后果会很恐怖——特别是落入坏人手里时。

如果开发出自主武器,那么它将成为战争史上的第三场革命。自主武器将使战争速度和战争规模达有史以来的最高水平。此外,它也可能成为恐怖分子的武器,摆脱道德约束,伤害无辜人民。潘多拉的魔盒一旦打开,便难以关闭。

联合国曾多次召开会议,商讨针对致命自主武器的禁令,然而收效甚微。原因在于:出于军事目的,个别国家热衷于开发这类技术;此外,私营企业也不想在人工智能方面被规章条例所束缚。尽管我们都知道,杀手机器人是件邪恶的东西;然而,谁也不知道该怎样限制这类玩意的开发。人类陷入了一场所有人都不希望发生的军备竞赛。

目前,许多科学家希望出台有关AI开发和应用的指导方针。不过,即便制定出相关方针,也很难保证所有人都遵守规则。

本文译自 sciencealert,由译者 蛋花 基于创作共用协议(BY-NC)发布。
原作者:D□□ID NIELD


给这篇稿打赏,让译者更有动力 !
支付宝打赏 [x]
您的大名: 打赏金额:

4.3
赞一个 (10)

24H最赞