人工智能
人工智能:一个虚假的上帝
科技界对超级智能的真实威胁在于陷入炒作
在亚瑟·C·克拉克著名的短篇小说《神的九十亿个名字》中,西藏的一群僧侣相信人类有一个神圣的目的:书写上帝的万千名字。他们认为,一旦清单完成,祂就会让宇宙终结。在几个世纪以来手动书写之后,僧侣们决定采用一些现代技术。两位持怀疑态度的工程师带着强大的计算机抵达喜马拉雅山。书写上帝名字的所有排列组合原本需要 15,000 年,但借助计算机,这项工作在三个月内完成。在工程师们骑着小马下山时,克拉克的这篇故事以文学史上最简洁的结尾之一结束:“头顶上,在没有任何喧嚣中,群星暗淡了下来。”
这是一种将计算机描绘成通往客观性或终极意义的捷径的意象——而这恰好也是,至少部分地,激发人们对人工智能着迷的部分原因。虽然支撑人工智能的技术已经存在了一段时间,但直到 2022 年末 OpenAI 的 ChatGPT 出现,这种接近智能的技术才似乎变得更加接近。在微软加拿大公司 2023 年的一份报告中,总裁克里斯·巴里宣称“人工智能时代已经到来,开启了一波变革浪潮,可能触及我们生活的方方面面”,并且“这不仅是一项技术进步;这是一场将我们推向以创新为中心的未来的社会变革”。这是比较冷静的反应之一。艺术家和作家惊慌失措,认为自己会被淘汰,政府争先恐后地迎头赶上并进行监管,学者们激烈争论。
企业急于登上炒作列车。包括微软、Meta 和 Alphabet 在内的全球最大一些公司都全力支持人工智能。除了科技巨头投入的数十亿美元外,2023 年人工智能初创公司的融资额接近 500 亿美元(美元)。在 4 月份斯坦福大学举行的一次活动中,OpenAI 首席执行官萨姆·奥特曼表示,他并不关心公司每年在人工智能上花费 500 亿美元。他的愿景的一部分是创造一种超级助手,一种“超级称职的同事,它能了解我整个生活、每封电子邮件、我进行过的每一次对话的方方面面,但却不像是一个延伸部分”。
但还有一种深入的信念,认为人工智能代表着一种威胁。哲学家尼克·博斯特罗姆是主张人工智能构成人类生存风险的最杰出人物之一。正如他在 2014 年出版的著作《超级智能:道路、危险、策略》中所阐述的,如果“我们构建了在通用智能方面超越人类大脑的机器大脑,……我们这个物种的命运将取决于机器超级智能的行为”。这里经典的故事是人工智能系统,其唯一——看似无害的——目标是制造纸夹。根据博斯特罗姆的说法,该系统会很快意识到人类是这项任务的障碍,因为他们可能会关闭机器。他们还可能耗尽制造更多纸夹所需的资源。这就是人工智能末日论者所说的“控制问题”的一个例子:担心我们将失去对人工智能的控制,因为我们构建的任何防御措施都将被领先我们数百万步的智能所瓦解。
在事实上,在我们确实向我们的技术霸主让步更多之前,值得回顾一下 20 世纪 90 年代中期和万维网的兴起。这也伴随着对一个新的乌托邦的深刻断言,一个相连的世界,在这个世界中,边界、差异和贫困将终结。如今,你很难辩称互联网是某种毫无问题的良药。幻想确实实现了;我们可以将全世界的知识装进口袋。这只是产生了一种相当奇怪的效果,让人们有点疯狂,助长了不满和两极分化,帮助极右翼重新崛起,并破坏了民主和真理。并不是说人们应该简单地抵制技术;毕竟,它也可以产生解放效应。相反,当大型科技公司带着礼物而来时,你可能应该仔细看看盒子里是什么。
我们目前所说的人工智能主要集中在 LLM,或大型语言模型。这些模型被输入大量的数据集——ChatGPT 本质上吸收了整个公共互联网——并训练找出其中的模式。意义单元,例如单词、单词的部分和字符,变成标记并被赋予数值。模型学会了标记与其他标记之间的关系,并且随着时间的推移,学会了一些类似于上下文的东西:一个单词可能出现在哪里、以什么顺序出现等等。
这本身听起来并不令人印象深刻。但当我不久前要求 ChatGPT 写一个关于一个忧伤的云朵的故事时,结果出人意料地人性化。聊天机器人不仅制作了儿童寓言的各种组成部分,还加入了一个弧线,最终,“云朵”尼布斯在天空的一角找到了一个角落,并与晴朗的一天和解了。你可能不会称这个故事好,但它肯定会让我五岁的侄子感到开心。
威斯康星州贝洛伊特学院认知科学教授兼系主任罗宾·泽布罗斯基这样解释了我察觉到的这种人性:“我们唯一真正遇到过的真正语言性事物是有思想的事物。因此,当我们遇到一些看起来像以我们说话的方式说语言的东西时,我们所有的先验都会被拉进来,我们认为,'哦,这显然是有思想的东西'。”
这就是几十年来检验技术是否接近智能的标准测试是图灵测试的原因,该测试以其创造者、英国数学家和第二次世界大战破译密码高手艾伦·图灵命名。该测试涉及一名人类审问者,他通过基于文本的信息向两个看不见的受试者——一台计算机和另一个人类——提出问题,以确定哪一个是机器。许多不同的人担任审问者和回答者,如果足够比例的采访者被愚弄,则可以说该机器表现出智能。在某些情况下,ChatGPT 已经能够欺骗至少一些人。
此类测试表明,我们的智能概念与语言的联系有多么紧密。我们倾向于认为“会说语言”的存在是聪明的:我们惊叹于似乎理解更复杂命令的狗,或能够用手语交流的大猩猩,恰恰是因为它使我们更接近我们的使世界变得有感觉的机制。
但是,能够说语言却不思考、感觉、愿意或存在可能是人工智能聊天机器人所写的文字如此没有生气和通用的原因。由于 LLM 本质上是在查看大量的数据模式并分析它们之间的关系,因此它们通常可以吐出听起来完全合理但错误或荒谬或只是奇怪的陈述。将语言简化为仅收集数据也是,例如,当我在 ChatGPT 中要求它为我撰写一份生物时,它告诉我我出生在印度,就读于卡尔顿大学,并获得新闻学学位——这三个方面的信息都是错误的(在英国、约克大学和英语)。对于 ChatGPT 来说,更重要的是答案的形状,表达得充满自信,而不是内容,正确的模式比正确的反应更重要。
尽管如此,LLM 作为随后重新组合的意义存储库的想法确实与 20 世纪哲学中关于人类如何思考、体验世界和创造艺术的主张保持一致。法国哲学家雅克·德里达在语言学家费迪南德·德·索绪尔的著作基础上提出,意义是差异性的——每个词的意义取决于其他词的意义。想想一本字典:词语的意义只能用其他词语来解释,而这些词语又只能用其他词语来解释。始终缺少的是在终止这种永无止境的能指链条之外的某种“客观”含义。相反,我们永远都被困在这个差异的循环中。一些人,比如俄罗斯文学学者弗拉基米尔·普罗普,理论上,你可以根据他的开创性著作《民间故事的形态学》将民间故事叙述分解成构成结构元素。当然,这并不适用于所有叙事,但你可以看到如何组合故事的单元——一个开始动作、一个危机、一个解决方案等等——然后创建一个关于有知觉的云朵的故事。
计算机可以快速思考的想法很快变得更加可行。拉斐尔·米利埃尔是澳大利亚悉尼麦格理大学的助理教授,他毕生致力于思考意识,然后是人工智能。他描述了参与一个名为 BIG-bench 测试的大学协作项目。它故意向人工智能模型提出超出其正常能力范围的挑战,以解释它们“学习”的速度有多快。过去,用来测试人工智能复杂性的任务包括猜测国际象棋比赛的下一步行动、在模拟审判中扮演角色以及组合概念。
如今,人工智能可以将以前不相关的,甚至是随机的东西,例如多伦多的天际线和印象派的风格结合起来,创造出以前不存在的东西。但这里有一个令人不安或令人恐惧的暗示。在某种程度上,这不也是我们思考的方式吗?米利埃尔说,例如,我们知道宠物是什么(一种我们带回家与我们一起饲养的生物),我们也知道鱼是什么(一种在大水体中游泳的动物);我们以某种方式将它们结合起来,保留某些特征,丢弃其他特征,形成一个新概念:宠物鱼。较新的 AI 模型拥有这种合并成表面上新的东西的能力——这正是它们被称为“生成式”的原因。
即使是相对复杂的论点也可以被视为这样运作。神正论的问题几个世纪以来一直是神学家之间永无止境的争论话题。它问道:如果一位绝对良善的神是无所不知、无所不能、无所不在,当神知道邪恶将会发生并可以阻止它时,邪恶怎么会存在?它极大地简化了神学问题,但神正论在某种程度上也是一种逻辑难题,一种以特定方式重新组合的想法模式。我并不是说人工智能可以解决我们最深奥的认识论或哲学问题,但它确实表明,有思想的存在与模式识别机器之间的界限并不像我们希望的那样严格而清晰。
人工智能聊天机器人背后有一个有思想的东西的感觉,也源于现在普遍存在的共识,即我们不知道人工智能系统是如何工作的。所谓的黑匣子问题通常被表述为神秘主义——机器人遥遥领先或如此外星,以至于它们正在做一些我们无法理解的事情。这是真的,但并不是听起来的方式。纽约大学教授莱夫·韦瑟比指出,这些模型正在处理如此多的数据排列组合,以至于一个人不可能完全理解它。人工智能的神秘性并不是幕后的隐藏或令人费解的心灵;它与规模和蛮力有关。
然而,即使在人工智能只能通过计算能力思考这种区别中,思考意味着什么仍然是一个有趣的问题。约克大学研究动物智能的教授克里斯汀·安德鲁斯表示,有许多认知任务——记住如何获得食物、识别物体或其他生物——动物可以在没有自我意识的情况下完成。从这个意义上说,人工智能很可能会归功于它可以做我们通常所说的认知。但是,正如安德鲁斯指出的那样,没有任何证据表明人工智能具有身份、意志或欲望。
很多产生意志和欲望的东西都位于身体中,不仅以色情欲望的明显意义上存在,还有内在的主观性、我们的潜意识与我们作为身体在世界中运动、处理信息和对信息做出反应的方式之间更复杂的关系。泽布罗斯基认为,有理由认为“身体对于我们如何思考、为什么思考以及我们思考什么很重要”。她补充说,“这不像是你只需把一个计算机程序拿走并把它放在机器人的头部就能得到一个具体的东西。”计算机实际上可以接近我们所说的思考,但它们不会梦想、想要或渴望,而且这比人工智能的支持者所透露的更重要——不仅对于我们为什么思考,而且对于我们最终思考什么也很重要。当我们利用我们的智慧为经济危机寻求解决方案或解决种族主义问题时,我们这样做是出于一种道德感,出于对我们周围的人、后代的义务——我们培养了这样一种意识,即我们有责任以具体的方式让事情变得更好,在道义上有意义的方式。
也许克拉克的故事中计算机的模型,一些类似于超越或全知捷径的东西,因此是错误的。相反,道格拉斯·亚当斯的《银河系漫游指南》中的计算机深思可能更接近。当被问及“生命、宇宙和一切的终极问题的答案”时,它当然吐出了著名的迟钝答案:“42”。
荒诞的幽默本身就足够了,但答案的可笑性也指出了一个容易被遗忘的真理。生活及其意义不能归结为一个简单的陈述,或一个名字列表,就像人类的思想和感觉不能归结为最终是由一和零表达的东西一样。如果你发现自己在问人工智能生命意义的含义,那么错了的不是答案。这是问题。在这个历史的特殊关头,似乎有必要思考当下的情况是什么让我们向一个仁慈、无所不知的数字上帝寻求答案——事实证明,它可能既不是这些东西中的任何一个。
今年 3 月,我在微软总部度过了两天,就在西雅图郊外。微软是“全力支持”人工智能的技术巨头之一。为了证明这一点,他们从世界各地召集记者参加“创新园区之旅”,其中包括一系列令人眼花缭乱的演讲和演示、在现场餐厅供应的看似永不间断的餐点,以及一段作家通常负担不起的高级酒店住宿。
我们身穿耳塞走过一个数据中心,以阻挡一群小型风扇的无人机轰鸣声。我们参加了许多小组讨论:团队如何整合人工智能,如何让“负责任的人工智能”参与进来以在技术出错之前对其进行控制。有很多关于这项工作是未来一切的讨论。在一个会议上,人工智能平台的亲切项目经理塞思·华雷兹将人工智能比作从铲子到拖拉机的转变:他用他的话来说,人工智能将“提升人类”。
我们渴望人们制作的东西,因为我们关心人们对自己作为人的体验的说法和感受。
我们所看到的一些东西确实鼓舞人心,例如萨奇布·谢赫的演讲,他失明并且花了很多年研究 SeeingAI。这是一个应用程序,它越来越善于实时标记视野中的物体。把它指向一个有罐子的桌子,它会说,“一个红色的苏打水罐,放在一张绿色的桌子上。”同样乐观的是,人工智能可以用来保存濒临灭绝的语言,更准确地扫描肿瘤,或更有效地预测在哪里部署救灾资源——通常通过处理大量数据然后识别和分析其中的模式来实现。
然而,尽管人工智能在未来有可能做许多事情的崇高言论很多,但人工智能似乎做得最好的大多是完全平凡的事情:处理财务报表并调和数字、使安全实践更具响应性和效率、记录和总结会议、更有效地筛选电子邮件。强调日常任务表明,人工智能并没有那么能产生一个宏伟的新世界,而是在你的角度看来,让现在存在的变得更有效率——或者更确切地说,强化和巩固了现在的结构。是的,你工作中的一些部分可能会更容易,但看起来很有可能的是,那些自动化任务反过来将只是更多工作的一部分。
确实,人工智能一次处理数百万个因素的能力实际上可能大大超过人类分析特定类型问题的能力,尤其是其中涉及的因素可以简化为数据的问题。在微软的一个关于人工智能研究的小组讨论的最后,我们每个人都获得了一本名为《人工智能之善》的书,详细介绍了更多利他主义的用途。讨论的项目包括使用机器学习解析使用声音或卫星跟踪野生动物收集的数据,或预测在印度放置太阳能电池板的最佳位置。
那是鼓舞人心的事情,特别是在 2020 年代生活时,这种事情会让人暂时松一口气或希望,也许有些事情会变得更好。但是,阻碍例如在印度部署太阳能的仅仅不是缺乏知识。相反,有资源、意志、既得利益,更直白地说,金钱等问题。这正是乌托邦式的未来愿景经常错失的:如果和何时发生变化,正在发生的问题将是关于某些技术是否以及如何分配、部署、采用的问题。这将与政府如何决定分配资源、如何平衡受影响各方的利益、如何销售和推广一个想法等有关。简而言之,这将是关于政治意愿、资源以及相互竞争的意识形态和利益之间的争夺。加拿大或世界面临的问题——不仅仅是气候变化,还有住房危机、有毒药物危机或移民情绪增长——不是由缺乏智力或计算能力造成的问题。在某些情况下,解决这些问题的办法在表面上很简单。例如,当有更多且更便宜的房屋时,无家可归者的数量就会减少。但由于社会和政治力量,这些解决办法很难实施,而不是缺乏洞察力、思考或新意。换句话说,最终阻碍这些问题进展的将是我们。
大型科技企业如此青睐的智力指数呈指数级增长的想法是一种奇怪的幻想,它将智力抽象成一种只能不断增长的超能力,将解决问题想象成一个可以简单地调高和调高的拨盘上的能力。假设这就是所谓的技术解决方案主义,这个术语是十年前由伊夫吉尼·莫罗佐夫创造的,这位进步的白俄罗斯作家自觉承担起无情批评大型科技公司的任务。他是第一个指出硅谷如何倾向于将技术视为解决所有问题的答案的人之一。
一些硅谷的生意人已经将技术解决方案主义推向了极端。这些人工智能加速主义者是思想最可怕的人。马克·安德森与第一个网络浏览器的创建关系密切,现在是一位亿万富翁风险资本家,他接过了与“觉醒头脑病毒”作斗争和普遍接受资本主义和自由主义的使命。在去年发表的一篇名为“技术乐观主义宣言”的宣言中,安德森概述了他的信念,即“不管是自然创造的还是技术创造的,任何物质问题都无法通过更多技术得到解决”。当作家里克·珀尔斯坦参加安德森位于加州价值 3400 万美元(美元)的住宅中的一次晚宴时,他发现了一群坚决反对对技术进行监管或任何形式的约束的人(安德森在 2023 年底的一条推文中称人工智能监管是“极权主义的新基础”)。当珀尔斯坦向一位同事讲述了整个经历时,他“注意到他的一位学生坚持认为历史学家长期担心的所有老问题很快就会被更好的计算机理所当然地解决,因此认为整个人文主义事业有点可笑。”
安德森的宣言中还包含了一个完全正常、毫不威胁的章节,其中他列举了一系列敌人。这包括所有常见的右翼恶棍:监管、自以为是的学者、“创新”的束缚以及进步人士本身。对风险投资家来说,这些都是不言而喻的邪恶。自 2008 年以来,安德森一直担任 Facebook/Meta 的董事会成员,该公司允许错误和虚假信息对民主制度造成严重破坏。然而,他坚持认为,显然没有任何讽刺意味,专家们“与其他人的生命玩弄上帝,完全不受后果影响。”
人们对技术的一个普遍理解是它是一种工具。你需要完成一项任务,而技术可以帮助你完成它。但是,有一些重要的技术——住所、印刷机、核弹或火箭、互联网——几乎“重新渲染”了世界,从而改变了我们对自身和现实的认识。这不仅仅是一个进化。在书籍问世,以及它记录复杂知识并在既定守门人之外传播信息的能力之后,现实的基础本身发生了变化。
人工智能处于一个奇怪的位置,因为它可能代表着技术上的重大变革,但同时它又被高估了。人工智能将我们带向某个宏伟乌托邦的想法存在严重缺陷。事实上,技术确实翻开了新的一页,但土壤中原本存在的东西并不会就此消失。
与专家交谈后,在我看来,人工智能的承诺在于处理人类无法操作的规模的数据集。用于生物学或物理学的模式识别机器可能会产生引人入胜且有用的结果。人工智能的其他用途似乎更普通,至少目前如此:提高工作效率、简化内容创建的某些方面、让获取简单的信息(例如旅行行程或文本摘要)变得更容易。
我们被数字垃圾淹没,作为回应,我们寻求一位超人助手来找出真实的东西。
然而,这并不是说人工智能是某种仁慈的美好。一个人工智能模型可以接受数十亿个数据点的训练,但它不能告诉你其中任何东西是好还是坏,它对我们是否有价值,而且没有理由相信它会这样做。我们不是通过逻辑难题而是通过思考我们不可消化的东西来得出道德评估:主观性、尊严、内在性、欲望——所有人工智能都不具备的东西。
说人工智能本身就能产生艺术,就误解了我们一开始求助于美学的原因。我们渴望人类制造的东西,因为我们关心人类对作为一个人和一个身体在世界上的体验所说和所感。
还有数量问题。在降低内容创建的障碍时,人工智能还将向世界注入大量垃圾。谷歌的使用已经变得越来越困难,因为互联网上充斥着旨在获取点击量的 AI 制作内容。这里有一个相互构成的问题——数字技术已经产生了一个充满如此多数据和复杂性的世界,在某些情况下,我们现在需要技术来筛选它。人们是否认为这个周期是恶性循环还是良性循环,可能取决于你是否从中受益或是否被迫在泥潭中跋涉。
然而,人工智能与现有系统的交织也令人担忧。正如夏洛特北卡罗来纳大学教授达米安·P·威廉姆斯向我指出的那样,训练模型会吸收基于是什么和已经是什么的大量数据。因此,他们很难避免过去的和现在的偏见。威廉姆斯指出,如果要求复制,比如说,一个医生对护士大喊大叫,人工智能会把医生设定为男性,护士设定为女性。去年,当谷歌匆忙发布 Gemini,它竞争对手人工智能聊天机器人的时候,它制作了“多元化”的纳粹和美国建国先父的形象。这些奇怪的错误是试图抢先解决训练数据中偏差问题的一种笨拙的尝试。人工智能依赖于已经发生的事情,而试图解释我们遇到的和对过去偏见的反应的多样方式似乎超出了它的能力范围。
偏差的结构性问题已经存在了一段时间。算法已经用于信用评分等事情,而且人工智能在诸如招聘等事项中的使用正在复制偏差。在这两种情况下,预先存在的种族偏见都出现在数字系统中,因此,与其说是一个流氓人工智能系统发射核弹的比喻,不如说是偏见问题。然而,这并不是说人工智能不会杀死我们。最近,有消息称以色列正在使用名为 Lavender 的人工智能版本来帮助其攻击巴勒斯坦的目标。该系统旨在标记哈马斯和巴勒斯坦伊斯兰圣战的成员,然后提供他们的位置作为空袭的潜在目标——包括他们的家。根据 +972 杂志的说法,这些袭击中有许多造成了平民伤亡。
因此,人工智能的威胁并不是一个随随便便就会杀死人类的机器或系统。而是假设人工智能实际上是智能的,这导致我们把一系列社会和政治职能外包给计算机软件——不仅仅是技术本身融入日常生活,还有技术的特定逻辑和精神及其自由主义资本主义意识形态。那么问题是:人工智能被部署到什么目的、在什么背景下以及在什么界限内。“人工智能可以用来让汽车自动驾驶吗?”这是一个有趣的问题。但我们是否应该允许自动驾驶汽车在道路上行驶、在什么条件下、嵌入什么系统——或者实际上我们是否应该完全取消对汽车的优先考虑——这些才是更重要的问题,而人工智能系统无法为我们回答这些问题。
从一个技术专家将他的人类进步希望寄托在超人的智能上,到军队依靠人工智能软件来列出目标,这一切都表明了人们渴望一个可以求助的客观权威人物。当我们指望人工智能来理解世界——当我们向它提出有关现实或历史的问题或期望它按原样呈现世界时——难道我们还没有陷于人工智能的逻辑之中吗?我们被数字垃圾淹没,被现在的嘈杂声淹没,作为回应,我们寻求一位超人助手从错误和误导的泥潭中找出真实的东西——当人工智能出错时,往往只会误导我们自己。
希望在一个不存在客观声音的地方看到一个客观声音的背后的驱动力也许是因为我们的意义构建装置已经以人工智能独有方式被破坏了。互联网已经成为一种不稳定的力量,而人工智能则有可能让它变得更糟。与佛蒙特大学的托德·麦高文教授交谈,他从事电影、哲学和精神分析方面的工作,我突然明白,我们与人工智能的关系基本上是为了克服这种不稳定而产生的欲望。
我们生活在一个真理不稳定、不断变化、不断受到质疑的时代。想想阴谋论的盛行、反疫苗运动的兴起或种族伪科学的主流化。每个时代都有其巨大的损失——对于现代主义来说,这是自我的连贯性;对于后现代主义来说,是宏大叙事的稳定性;现在,在 21 世纪,对共享现实愿景的概念的压力越来越大。与此同时,从政客到名人再到公共知识分子等社会人物似乎比以往任何时候都更多地受到名声、意识形态障碍和明显不真实想法的吸引。
麦高文说,缺少的是精神分析思想家雅克·拉康所说的“被认为是该知道的人”。社会中应该充满那些被认为该知道的人:教师、神职人员、领导者、专家,他们都作为权威人物为意义结构和思维方式提供稳定性。但是,当赋予事物形状的系统开始消失或受到质疑时,就像宗教、自由主义、民主等发生的事情一样,人们就会开始寻找一位新上帝。让人们渴望让人工智能工具告诉我们一些关于一个世界(在这个世界里有时会感觉什么都不是真的)的事情,这是特别令人心酸的。对于被主观性海洋淹没的人类来说,人工智能代表着超验事物:不可能逻辑的头脑,它可以告诉我们真相。潜伏在克拉克关于西藏僧侣的短篇小说的边缘的是一种类似的技术感,它是让我们超越我们仅仅是凡人的束缚的东西。
但这种超越的结果是一切的终结。在求助于技术使一项深刻的精神、手工、艰苦的任务变得更加高效时,克拉克的故事中的角色最终抹去了支撑他们走向超越之旅的信仰行为。但在这里的现实世界中,也许见上帝并不是目标。这是尝试这样做的折磨和狂喜。人工智能的范围、能力和功能可能会继续增长,但我们对它的信仰背后的假设——可以说,它可能使我们更接近上帝——只会使我们远离祂。
在十到二十年后,人工智能无疑会比现在更先进。它在不准确、幻觉或偏差方面的问题可能不会得到解决,但也许它最终会写出一篇不错的文章。即便如此,如果我足够幸运还能活着,我会带着我的人工智能助手在我耳边窃窃私语走出家门。人行道上仍然会有裂缝。我居住的城市仍将处于建设中。即使汽车在自动驾驶,交通状况也可能仍然混乱不堪。也许我会四处看看,或抬头看看天空,我的人工智能助手会告诉我一些关于我所看到的东西。但事情仍然会继续前进,变化只是比现在小一些。而星星呢?相对于现在可能看起来如此多的变化,天空仍然会布满星星。
本文译自 The Walrus,由 BALI 编辑发布。