@ 2014.10.20 , 13:42

超级人工智能的崛起将是人类末日

[-]

今天的计算机聪明到了什么程度?
今天的计算机可以完成越来越复杂的任务,已经具备了接近人类的智能。微软的Xbox游戏机甚至可以通过分析玩家的面部表情评估玩家当前的情绪。2011年IBM的超级计算机“沃森”赢得了智力竞赛节目“危险边缘”。科学的进步将引领我们获得计算机科学圣杯:人工智能,或者能够自己思考而非仅仅对命令进行反应的计算机。但是一旦计算机实现了“超级智能”,那时又会怎样呢?所谓的超级智能,指的是计算机不仅仅在数学和科学能力上超过人类,而且在艺术创造性甚至是社会技能领域也大大超过人脑

牛津大学未来人类研究院主任Nick Bostrom认为未来计算机不再是顺从人类的工具,更是毫不关心人类种族兴亡的主宰物种,人类则在睡梦中不知不觉地迈进这个未来。

Bostrom 警告说:“一旦对人类不安全的超级智能被开发出来,我们就没有能力再把它装回瓶里了。”


人工智能何时会成为现实?

根据Bostrom对人工智能专家的调查显示,2050年之前开发出人类级别的人工智能的概率是50%,到2075年开发出来的概率为90%。开发人工智能的关键很可能就是人脑:如果计算机能够模仿人类大脑的神经元网络工作模式,也许可以形成自己的感觉和思维。正是因为对这点心知肚明,Googel等科技巨头一直在努力研发属于自己的大脑——运行高度先进软件的多台协同服务器。同时扎克伯格对旧金山科技公司Vicarious下了重注投资,这家公司研究的就是如何复制大脑皮层——这个掌管视觉、语言和数学运算的区域。将大脑皮层转化为计算机编码,就得到了一个能够像人一样思考的电脑,除了不吃饭不睡觉以外,和人类是一样的。

为什么说是威胁?

电脑的算力从1956年起就以每18个月的速度翻倍,某些人工智能领域的专家相信在下个世纪电脑已经能够理解自己的设计架构并能对自己进行指数级别的升级。结果就是机器和人之间将形成无法跨越的智能的鸿沟,Bostrom说这就像人类和昆虫之间智能的差别。计算机超级智能对于人类来说可能是恩惠,它能够治愈癌症和艾滋病等疾病,能够解决人类无法解决的问题,能够在让人休息时间增多的前提下创造更多财富。但是超级智能也可能带来很大的问题。


哪些方面可能出错?

计算机是用来解决问题的,它遵守效率最大化的原则。如果身上有诸多缺点的人类阻挡了效率提升,那么问题就来了。Bostrom引用了回形针的例子。只要你给AI一个清晰的目标,比如“在全世界尽可能多生产回形针”——而且AI必须足够聪明,可以自行发明超级科技,建造自己的加工厂,如果满足这些条件,那么,你对AI说的话就要小心了。

“AI是如何确定回形针已经达到最大可能量了?”Bostrom提出这个问题,“计算机要确保人类不会关掉计算机,不会影响回形针的数量。计算机也许会做出立刻抹杀人类的决定,因为人类对回形针来说是个威胁——唯一能够关闭回形针工厂的就是人类。Elon Musk最近提出警告,他认为对人工智能一定要非常谨慎,他说人工智能带来的危险可能超过核能


未来是否无可避免?

很多计算机科学家认为我们不会迎来注定的毁灭,相反他们质疑人类是否能够真正实现人工智能。他们认为光是理解人脑,人类已经走过了漫长的研究道路——包括意识本身是什么这个问题——更别提将这些知识用来打造一台有感情和自我意识的机器。虽然今天最强大的计算机可以用算法赢得国际象棋大赛,可以赢得竞猜电视节目,可我们还无法创作出能够写出感人的诗作,能够判断是非的机器人——要制造出完全掌握人类技能的机器人还很遥远。

人类对此有什么防御措施呢?
很不幸,至今为止还没有多少。Google创立了人工智能伦理评审委员会,某些计算机科学家呼吁在编程前确定程序符合道德指导方针——不过到时候程序员又将面临哪些行为合乎道德哪些又不符合的艰难抉择。超级计算机设计师先驱Danny Hillis认为最基本的问题在于科技公司设计出来的计算机越来越智能化,但是这些科技公司对于自己的发明可能产生的影响并没有一个完全的理解——甚至不屑于去思考。他说我们就是一群阿米巴原虫,无法理解自己创造出来的是个什么东西

如果机器人学会了撒谎?
2009年的时候,来自瑞士的研究人员进行了一个机器人实验,谁料结果竟然出乎大家的意料。在某个竞技场中,研究人员放置了数百台机器人,机器人身上的程序让它们在竞技场中寻找一个浅色的圆环(实验中的食物)。这些机器人相互可以沟通,机器人会向同伴发送蓝光告诉其它机器人食物的位置。但是随着实验进行,研究人员发现某些找到食物的机器人停止了闪光,并且学会了独占这些资源——而源程序根本没有指示它们这么做。也许机器人也学会了自保。
本文译自 The Week,由 王大发财 编辑发布。

赞一个 (23)