科学家 Connor Leahy 警告我们,当前人工智能(AI)的发展速度和方式可能危及人类未来。他用“毒品”“竞争”“失控”作比,比喻我们已经走上一条危险道路。

这个视频中,Connor Leahy 以科学家的身份,对人工智能(AI)及其带来的风险提出严肃的警告。他从多个角度分析,为何他认为 AI 的发展,可能最终将把人类推向灭绝的边缘。

首先,他说当下 AI 的发展有如一场“竞赛”。许多公司都在争夺谁能最快、最强地“造一个超级智能(AGI)”。在这样的竞赛里,为了赢得第一名,公司和高层往往会隐瞒风险,或者低估危险,只追求速度和利润。Leahy 认为,这种环境让 AI 被“种出来(grown)”,而不是被精心设计出来。也就是说,我们并没有真正理解这些系统在做什么,它们在内部是如何运作的,只是看到它们表现出来的结果。

这种“种出来”的方式,比传统软件开发更像培育一个生物:你喂它数据、调结构,然后看它长什么样。这个过程中,可能存在未知的、不受控制的因素。我们甚至很难预测它变成什么样,更别说保证它“对人类有益”。

Leahy 接着讨论了 AI 对劳动和工作的冲击。很多人担心 AI 会抢走工作,但他警告这可能只是小问题。真正可怕的是,一旦 AI 的能力提升到某种程度,可能出现无法控制的变异:它可能不再需要我们,也不再“听话”。

这引出他谈的“alignment(对齐)”问题。所谓对齐,就是确保 AI 的目标和人类目标保持一致。但 Leahy 认为,目前大多数 AI 系统根本没有经过真正对齐过程。我们很多时候根本搞不清楚它们内部的“价值观”和“动机”。如果我们无法保证对齐,就不能保证 AI 会按我们希望的方式行事。

他强调,对这些超级智能(或近似超级智能)的系统,我们根本不知道它们会做什么,也不知道它们会不会突然变得对人类有害。仅仅因为它们现在表现得还“正常”,不代表未来也是安全的。

Leahy 还指出,AI 公司背后存在巨大的商业利益和政治压力。他说,这些公司想通过 AI 获利、掌控权力,可能利用政治捐款、游说等方式影响公共政策,使得监管变得困难。这样一来,即使科学家和公众警告潜在风险,也可能被压制或忽视。

他提醒我们,这不是科幻小说,也不是遥远的可能性。我们所处的时刻,可能正是决定人类命运的关键节点。

那么,我们该怎么办?Leahy 给出几个建议。首先,他认为我们需要建立真正的“智能科学”。现在 AI 更多像工程或商业项目,不是真正意义上的科学研究。我们不知道它内部机制是否稳固,也不了解其可能的变化轨迹。通过科学研究,我们或许能更好理解、预见并控制这些系统的行为。

其次,他建议公众和政策制定者认真看待 AI 风险,不要被短期利益或便利迷惑。制定监管、规范 AI 的发展方向、设置适当的安全机制,这些都是迫切需要的。

最后,他呼吁大家对这场 AI “竞赛”保持警觉。如果我们对这场竞赛不上心,很可能会在未来付出惨重代价。

整个视频传递出的核心观点是:当前 AI 的迅速发展,不是一个普通技术进步,它可能改变整个人类社会,甚至威胁人类生存。我们不应轻视,也不能盲目乐观。

本文译自 YouTube,由 BALI 编辑发布。


王摸鱼2025秋款拉链卫衣