人工智能
AI会产生意识吗?
听起来有些牵强,但研究人员正在尝试在AI中重现主观体验,尽管对于意识的定义存在争议,这将使测试变得困难。
问一个由AI驱动的聊天机器人是否有意识,大多数时候它们会否定回答。OpenAI的ChatGPT写道:“我没有个人欲望或意识。”谷歌的Bard聊天机器人也表示:“目前,我乐于以各种方式帮助人们。”
目前而言?AI似乎对这个想法持开放态度,只要在它们的架构中加入适当的元素,意识并不是那么遥不可及。制造这些AI的公司也持有相同观点。纽约大学的哲学家David Chalmers表示,我们没有充分的理由排除硅晶体管中出现某种内在体验的可能性。“没有人确切地知道意识必然伴随着哪些能力,”他在今年五月在西西里的“意识科学”会议上说道。
那么,我们离拥有有感知能力的机器有多近?如果意识确实出现,我们将如何发现?
我们可以说的是,这些AI已经展现出令人不安的智能行为。支撑新一代聊天机器人的大型语言模型(LLMs)可以编写计算机代码,似乎能够推理:例如,它们可以告诉你一个笑话,然后解释为什么它有趣。它们甚至可以进行数学计算和写高质量的大学论文,Chalmers说。“很难不被它们所打动,也有点害怕。”
但是,简单地扩大语言模型并不太可能导致意识,因为它们只是强大的预测机器而已。更大的数据集和更复杂的电路使这些AI变得越来越智能,但这并不意味着它们有任何体验,葡萄牙里斯本大学的认知科学家和哲学家Anna Ciaunica表示。“体验是一种经历,而不仅仅是了解。”
话虽如此,研究人员已经开始尝试在AI中重现体验。如今,我们的思维是由身体和感官塑造的,这被称为具身认知,已成为正统观点。因此,一种方法是将语言模型与能够看到和听到的机器人身体融合在一起,Chalmers说。事实上,谷歌最近展示了一款能够感知和与环境互动的AI机器人。具身智能使得PaLM-E能够在实验过程中将一包薯片送到主人手中,尽管这包薯片在实验进行中被藏在抽屉里。
尽管机器人送零食是受欢迎的,但Ciaunica怀疑PaLM-E存在的计算机代码实际上并没有“体验”任何东西。我们的思维和身体在数百万年的时间里共同进化。她说,简单地将机器人与复杂的AI思维结合在一起,然后期望它们变得有意识是错误的方法。
与此同时,深度学习先驱Yoshua Bengio从大脑信息处理的角度出发。他说:“意识并不神奇,它是物质的。”他在加拿大蒙特利尔大学的实验室将“全局工作空间理论”应用于AI。这个理论认为,当许多不同的脑功能被招募到一个中心舞台上以解决问题时,意识就会产生。通过将AI的许多模块通过一个瓶颈,他的目标是在硅芯片上创建类似的舞台。“这可能会导致具备意识相关的许多认知功能的AI,”本吉奥说。
然而,爱沙尼亚塔尔图大学的Jaan Aru表示,将大脑比作计算机的隐喻忽略了软件和生物体之间的一个重要区别。他和他的同事在最近的一篇论文中写道,经验伴随着保持现状的冲动,因此,与计算机不同,生物体有东西可以失去。“意识可能取决于‘参与游戏’,”Aru说。
Bengio反驳说,已经出现了一些“原始形式的感觉和情感”的AI,它们会因为采取某些行动而获得奖励。Bengio说,这种行为强化起初会产生类似于人类生存本能的“先天驱动”。随着AI经历更丰富的社交生活,没有什么能阻止类似于我们自己社交生活中经历的情感的出现。
最终,你认为AI会变得有意识的程度取决于你对意识的偏好理论。对于泛心灵主义者来说,他们相信心灵是所有物质的内在属性,AI在某种程度上一直都有意识,就像电子、岩石和蛋黄酱一样。在我们不知道意识是什么之前,没有确定的测试方法。计算机科学家图灵(Alan Turing)著名的“模仿游戏”将对话能力作为测试机器是否思考的基准。但是聊天机器人的成功表明,这将成为智能而非有感知能力的测试,查尔默斯说。
也许相关的问题不是AI是否能够有意识,而是为什么我们希望它们有意识。“我们应该避免试图建造与我们相似的机器,”Bengio说。“如果我们将AI保持在工具的角色中,而不是作为像人类一样的主体,这将更加健康。它们在社会中不会扮演与人类在社会中扮演的相同类型的角色,因为它们本质上是不朽的。”
本文译自 New Scientist,由 BALI 编辑发布。