@ 2015.07.19 , 09:46

它思故它在:机器人通过自我意识测验

[-]

美国伦斯勒理工学院的一名研究人员给他的3个Nao机器人进行了升级版的经典“智慧男人谜题”的自我意识测验,而其中一名机器人成功通过。

在这个经典的逻辑测验中,国王召见了3名最有智慧的男人,为每人戴上一顶白帽子或蓝帽子。他们都可以看见其他人的帽子颜色,但看不见自己的;同时他们不能相互交谈。国王承诺说至少有一顶蓝帽子,并且比赛对所有人都是公平的。能够回答出自己头上所戴帽子颜色的人就可以成为国王的臣子。

而在这个升级后的人工智能版本中,每个机器人被给予了一片“药丸”(当然了,其实只是脑袋上轻拍一下,因为它们并不能真正吞下药丸)。其中两片药丸会使机器人沉默(即哑药),而另一片药丸则为安慰剂。测试者、认知科学系主任Selmer Bringsjord接下来询问机器人,它们吃的是哪片药丸。

在一段沉默过后,其中一个小机器人起身回答道:“我不知道。”然而话音刚落,它立刻转变了想法并且举起手来礼貌地说:“不好意思,我现在知道了。我刚才证明了我吞的不是哑药。”这段可爱的视频如下:

这虽然看上去非常简单,但对于机器人而言,却是最难解决的问题之一。它不仅要求这个人工智能可以听到并且理解问题,而且当它听到自己的声音时,要能够意识到自己有别于其它机器人,同时将这个意识与原问题联系起来,并给出正确答案。

但是慌不要慌,这跟我们作为人类所拥有的自我意识相比,还差得很远,更不要提电影里那些想要摧毁人类的机器人了。相反,它们仅仅是被程序所操控,在特定的情境里拥有自知能力。不过,创造出能够理解自己在社会中所扮演的角色的激情人还是很重要的,这能够使得它们成为更有用的公民——拥有自我意识的逻辑和数学。

目前为止,阻碍人工智能真正拥有自我意识的主要原因在于它们无法像人类大脑一样处理大量的信息。虽然摄像机可以捕获比人眼更多的场景信息,然而机器人无法将这些信息缝制成一幅综合的图景。

尽管如此,我们在创造聪明的人工智能时,依旧需要小心谨慎。假如我们能够创造出等同于需求和欲望的程序,那么将如何阻止他们做坏事呢?一切出于恶意而做坏事的程序和结构,都可以应用到机器人上。

哦对了,关于上面那个逻辑题,正确答案是三人帽子均为蓝色。

本文译自 sciencealert,由译者 蛋花 基于创作共用协议(BY-NC)发布。


给这篇稿打赏,让译者更有动力 !
支付宝打赏 [x]
您的大名: 打赏金额:

0.0
赞一个 (17)

24H最赞