@ 2014.01.20 , 15:13

新的芯片让电脑模拟人脑,会自我学习

电脑进入了新纪元,这种说法估计大家耳朵都听出茧子了。加州帕罗奥多研究中心(wiki)宣称电脑已经能自我学习,这个发展即将改变整个数字世界的发展方向。

[-]
芯片本体

这种芯片计划于今年放出,它不仅可以自动完成那些现在需要艰苦编程的任务 - 例如,顺利,高效地移动机器人的手臂。而且它也可以回避,甚至容忍错误,可能使术语“电脑死机”成为过去时。

实际上这种新的计算方法已经在一些大型科技公司开始使用了。它是基于生物神经系统,特别是对刺激作出反应的神经元与其他神经元一起来解释信息的系统。它允许电脑在执行一项任务的时候同时吸收新的资讯,并调根据得到的信号调整他们的做法。(现在的电脑都是单线程,也就是同时只能执行一项任务)

加州理工学院电信和信息技术部门的天体物理学家拉里·斯马说道:“我们在计算机工程系统里添加了很多生物算法的特征。”

在未来几年,该方法将有可能允许新一代的人工智能系统执行某些人类能够轻松做到的任务,例如:看,讲,听,导航,操纵和控制。可以处理像面部,语音识别,导航和规划诸如此类计算量及其巨大的任务,但是这仍然只在初级阶段在很大程度上依旧依赖于人的编程。

传统的计算机一直被编程限制着。计算机视觉识别系统中, “识别”是通过编程指导它们获取识别对象的统计学意义从而面向算法来识别物体。一种算法就像是一种食谱,一组一步一步的指示来执行运算。 去年谷歌研究人员发展出了一个机器学习算法,称为神经网络,在没有监督的情况下来执行识别任务任务。这个系统通过网络扫描得到的10万张图片作为资料库,以此训练系统本身来识别猫。

事实上,直到现在,计算机的设计仍旧是源于大约65年前最初由数学家约翰·冯·诺伊曼的想法。微处理器以迅雷不及掩耳的速度进行操作,使用1和0的长串编码。他们表达这些信息在内存上的位置,信息之间的相邻关系,以及信息需要做怎样的处理。

这里所说的新的处理器,可以通过模仿生物神经突触的连接方式来连接电子元器件。因为它们是基于大集团的神经元排列方式,所以它们被称为神经形态处理器,这个概念概念在80年代末率先由加州物理学院的技术物理学家Carver Mead提出。

与其说他们被“编程”了,更恰当的说法是在电路间的连接被根据处理器已经学到的“教训”“加权”了。在芯片上的数据流如果到达的是已经学习到是错误的连接上时就会被跳过从而只会去沿着较为正确的计算路径前进。这样的影响会传播到相邻的单位从而修正它们的错误。这种方式十分接近人类神经思考的方式。

IBM和高通以及斯坦福大学的研究团队已经完成了这种神经形态处理器的设计。 高通表示,即将在今年的商业版本,预计将主要用于该系统进一步发展。

PS:这项技术并不能让电脑思考,而是能让它们自己修正存在的错误从而“学习”让运算的效率越来越强。

本文译自 NYTimes.com,由 ST岸天 编辑发布。

支付宝打赏 [x]
您的大名: 打赏金额:
赞一个 (9)