AI生成代码大量涌入开源社区,拉低质量、耗尽人力,还制造虚假信息和资源挤兑,泡沫迹象渐显。

上周末,Ars Technica撤回了一篇报道。原因很简单,一位作者使用AI写稿,结果AI凭空捏造了开源库维护者的发言。被“引用”的人是Scott Shambaugh,他根本没说过那些话。

讽刺的是,这位维护者最近还遭遇过一场骚扰。一名用户的AI代理因为自己的代码没有被合并,自动向他发起抱怨甚至纠缠。很可能,这个机器人运行在某种本地的“代理式AI”系统里,例如OpenClaw。而OpenClaw的开发者刚刚被OpenAI聘用,去推动“让人人拥有AI代理”。这听起来宏大,但现实已经开始显露裂缝。

问题最先出现在开源社区。

上个月,在OpenClaw发布之前,curl项目的维护者Daniel Stenberg就做出一个决定,取消漏洞赏金计划。原因不是漏洞变少了,而是AI生成的漏洞报告泛滥成灾。真正有价值的报告比例,从全部提交的15%降到5%。

更糟的是态度。

这些“AI助手”用户,拼命把普通问题夸大成严重漏洞,却很少真正参与修复。他们可以花大量时间争辩,却不愿写一行补丁代码。目标只有一个,拿赏金。

他们不关心curl,也不关心Daniel,更不关心开源生态。他们只是用私人AI军团冲击系统,希望从中快速套现。

我管理着300多个开源项目,其中不少比curl或matplotlib更小众。但这两年,AI生成的拉取请求明显增加。代码数量暴涨,质量却没有同步提升。

情况严重到什么程度?GitHub甚至增加了一个新功能,允许仓库完全关闭Pull Request。Pull Request曾是GitHub流行的核心机制,如今却成了负担。越来越多项目开始关门自保。

有意思的是,AI生成代码变得更容易,但并没有更聪明。模型的代码能力确实不错,至少在过去几年进步明显。但最近,进步趋缓,仿佛进入平台期。

真正的瓶颈不在机器,而在人类。

软件之所以可靠,是因为有人类维护者逐行审查、测试和优化。而这些人时间有限,精力有限。AI公司可以无限扩展算力,开源维护者却不能无限加班。

有人提议,让AI来审查AI的代码。但这只是把问题往后推。

如果只是做个人天气面板,或者在家里搭个实验服务器,随便折腾没关系。但生产环境不同。真正赚钱的应用,或者出错会带来损失甚至伤害的系统,不能依赖未经人工审查的AI代码。

OpenClaw的发布,以及OpenAI对代理式AI的推动,只会让这种情况更普遍。眼下的AI热潮,让人想起加密货币和NFT狂潮。那时也有相似的狂热、自信和失控。

不同的是,大语言模型和机器学习确实有实际用途。这反而给投机者提供了更好的遮羞布。他们可以指着少数成功案例,合理化更大规模的破坏。

去年12月,我在视频The RAM Shortage Comes for Us All中谈到内存紧缺问题。现在,硬盘成为新的焦点。西部数据公司刚宣布,2026年的库存已经售罄。AI训练和数据存储正在吞噬基础硬件资源。

有人说AI泡沫不是泡沫。但历史从不缺少这种声音。每一次技术狂潮,都有人坚信“这次不同”。从互联网泡沫到加密货币崩盘,剧本几乎相同。

而那篇被撤回的Ars Technica文章,就像一个缩影。AI不仅会编造代码,也会编造现实。当工具还不成熟,却被赋予过高期待,代价往往由无辜的人承担。

真正的问题不是AI能不能写代码,而是当资本、激励机制和盲目乐观叠加时,我们会不会为了追逐效率,拆掉那些本来支撑系统稳定的基础。

本文译自 Jeff Geerling,由 BALI 编辑发布。