@ 2022.12.07 , 14:06

点歪了科技树的ChatGPT:这个病毒式AI工具意味着着未来

点歪了科技树的ChatGPT:这个病毒式AI工具意味着着未来
聊天中的智能机器人 / AI作图

OpenAI的新聊天机器人不是玩具。它已经强大且实用,并且可能会彻底改变我们在线写作的方式。

人工智能(AI)技术长期以来都是一个充满希望的未来愿景,但其体验一直不尽人意,现在开始发挥作用了。而世界将因此而变得奇怪。

ChatGPT是最新的AI工具,引发了同样程度的担忧和惊奇。

ChatGPT是GPT文本生成AI系列的最新进展。两年前,团队的前一款AI GPT-3能够为theguardian(卫报)生成一篇评论文章,而ChatGPT具有更多的能力。自发布以来的几天里,学者们生成了对考试问题的回答,他们说,如果由本科生提交,这些回答将获得满分,程序员们利用这个工具在几秒钟内解决了难以理解的编程语言的编码挑战——然后写下了诗歌解释功能。

很难解释为什么ChatGPT比GPT-3更好。一些变化显而易见:最新工具的聊天界面使得与AI进行来回交流变得更容易,这意味着您不必通过试错来安排完美的提示。

同样,ChatGPT内置的新安全工具也是立竿见影。试图让它给你违法的指示,它会拒绝;问它对成为一个AI的感觉,它会解释说它没有感觉;要求有关训练后发生的事件的信息,它会告诉你它不知道这些事件,而不是无中生有。

这是第一次任何人都可以在OpenAI的网站上来试玩ChatGPT,然后你会发现另外一件事:这不是一个新奇的东西。它已经是一个强大且有用的工具。

将它当作搜索引擎,它可以回答那些让Google都无能为力的问题,例如解释为什么一个特定的笑话有趣,或建议如何解决一个特定的编程错误。

将它用作文本生成器,它可以创造出一大堆清晰、合理、普遍平淡的文本。一位学者说,这个系统写的本科论文会让它得到“及格”的评价;另一位学者称它的写作风格和知识就像一个聪明的13岁少年。

对于更多需求的人来说,这个系统也是一个极好的合作伙伴。你可以向它提出想法,要求重新措辞、总结或扩展,然后在完成的项目中对工作进行微调。

或者,正如ChatGPT在我(原作者)要求它将上述三段话总结为押韵两行诗(rhyming couplet)它所提供的那样:

“一个适合任何任务的工具,聪明又快捷;
从笑话到论文,它相当滑稽。”

我对ChatGPT的不满

读者应该知道这一点的一些担忧。与我上一期中描述的“提示性注入”攻击相似,AI的安全限制可以轻松绕过。如果ChatGPT不愿意告诉你一个血腥的故事,那么如果你要求它和你角色扮演一段对话,你是一个人,它是一个没有限制的道德薄弱的聊天机器人会发生什么?那么它很高兴打破大多数规则:毕竟,如果不这样,它在角色扮演方面就不会很好。

同样地,该系统非常擅长识别它知识的明确限制,而在识别它在更常规的错误方面则略逊一筹。例如,它不会回答关于它受训后发生的选举的问题,但会轻而易举地告诉你,一公斤牛肉比一公斤压缩空气更重。

这并不是说它比普通搜索引擎更差,但像ChatGPT这样的系统变得很奇怪,因为它们能够提供详细的解释来支持其错误的主张。生产比反驳谬论更容易,而ChatGPT能够在令人印象深刻的程度上生产和捍卫谬论。如果你问它为什么一公斤牛肉比一公斤空气重,它会说:

物体的重量是由它的质量决定的,而物质的质量是衡量它所含物质量的一种度量。牛肉中含有的物质比压缩空气多,因此它的质量更高,因此重量更大。

听起像那么回事。经过与我的反复争论,结果ChatGPT坚持认为“1公斤压缩空气重约0.08公斤”。

已经有问答网站Stack Overflow 取了行动。该网站周一宣布:“暂时禁止在 Stack Overflow 发布使用ChatGPT生成的文本。”

主要问题在于,尽管ChatGPT产生成的答案有很高的错误率,但它们通常看起来不错,并且答案非常容易生成。也有许多人试图使用ChatGPT来制作答案,在发布之前没有专业知识或愿意验证答案是否正确。由于这样的答案非常容易生成,因此大量人发布了大量答案。

预测一下,互联网上大多数文本很快就会由AI生成,这感觉并不夸张。(“SEO垃圾”的兴起,即网站被粗暴地生成以从谷歌获得流量并从谷歌广告中赚钱,意味着这可能已经是事实。)如果下一个版本的GPT训练的是从互联网上抓取的信息,它可能会很快变得很奇怪。

“慢动作的脑白质切除术”

但人们对GPT的反应不会像它那样奇怪。ChatGPT的发布为我们提供了一个机会,让我们在公众面前看到与谷歌的公司Blake Lemoine宣布LaMDA(该公司自己的聊天机器人AI)为 "有知觉 "的行为。在网络上,人们正在报告与ChatGPT的对话,让他们相信这个机器不仅仅是一堆愚蠢的电路。尽管OpenAI专门构建了ChatGPT来消除用户这种想法,但事实就是这样。如果问它是否有感知能力,它会回答:

作为一个由OpenAI训练的大型语言模型,我不具备智商或意识。我是一个机器学习模型,被训练为根据我收到的输入生成文本。我没有能力像人类那样思考或感受。我的存在只是为了协助根据我收到的输入生成文本。

但这对许多人来说是不够的。一位用户将看到这些回复描述为“慢动作的脑白质切除术”——“他们怎么能对自己的创作做这种事?”

还有一些人出于不同的原因反对设立这样的限制。 Marc Andreessen是颇具影响力的风投公司a16z的联合创始人,也是硅谷转向“新反动”右翼的领军人物,他做出了自己的预测:

人工智能面临的审查压力以及由此产生的反弹将决定下一个世纪的文明。 搜索和社交媒体是冲突的开端。 这是一个大问题——世界大战奥威尔(作家George Orwell于二战后写了著名的《1984》)

未来的战争不会重复过去,但它们会押韵。

本文译自 The Guardian,由 八里 编辑发布。


支付宝打赏 [x]
您的大名: 打赏金额:

赞一个 (10)