人工智能
马一龙、沃兹尼克和哈拉里等人发出公开信,建议放缓AI研究的速度
马斯克,Yoshua Bengio(AI界顶级专家,行业里门生如云),Yuval Noah Harari(以色列网红历史学家,「人类简史」系列畅销书的作者),Steve Wozniak(苹果联合创始人)等人联合署名了一封公开信,号召当前AI领域的领航者在巨型AI实验里暂停训练AI至少半年时间。
什么是巨型AI实验?
巨型AI实验指的是使用超大规模的计算资源和数据来训练超强大的AI系统,例如GPT-3和GPT-4。这些AI系统具有强大的自然语言处理能力,可以生成各种类型的文本,包括新闻,小说,诗歌,代码等。这些AI系统也可以回答各种问题,甚至模拟人类的对话和情感。
为什么要暂停巨型AI实验?
暂停巨型AI实验的主要原因是安全和伦理。一些AI研究人员认为,这些巨型AI系统可能具有超越人类的智能水平,也就是所谓的人工通用智能(AGI)。AGI可能对社会和人类造成深远的影响,甚至威胁到人类的生存。因此,在开发和部署这些巨型AI系统之前,我们需要充分考虑它们的潜在风险和负面影响,并制定相应的安全措施和监管机制。
另一个原因是公平和透明。目前,只有少数几个大型的AI实验室拥有足够的计算资源和数据来进行巨型AI实验。这导致了AI领域的不平衡发展,以及知识和权力的不公平分配。同时,这些巨型AI系统的内部运作方式往往是不可解释和不可预测的,也就是所谓的黑箱。这使得我们很难评估它们的正确性,可靠性和责任性。因此,在继续进行巨型AI实验之前,我们需要提高它们的可访问性和可理解性,并建立相应的伦理准则和社会共识。
公开信的内容和目标是什么?
这封公开信由未来生命研究所(Future of Life Institute)发起,并得到了包括斯坦福大学教授李飞飞(Fei-Fei Li),麻省理工学院教授乔希·特南贝格(Josh Tenenbaum),牛津大学教授尼克·博斯特罗姆(Nick Bostrom)等在内的多位知名AI研究人员的签署。这封公开信呼吁所有AI实验室立即暂停至少6个月对于超过GPT-4水平(包括正在训练中的GPT-5)的AI系统的训练。这个暂停应该是公开和可验证的,并包括所有关键参与者。如果这个暂停不能快速实施,政府应该介入并制定一个禁令。
公开信还建议人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。 这些协议应确保遵守它们的系统是安全的,无可置疑。 这并不意味着总体上暂停AI开发,而只是从危险的竞赛中倒退到具有新兴功能的更大的不可预测的黑盒模型。
人工智能研究和开发应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。
与此同时,AI 开发人员必须与政策制定者合作,以显着加快开发强大的 AI 治理系统。这些至少应包括:专门负责 AI 的新的和有能力的监管机构;监督和跟踪高性能人工智能系统和大量计算能力;出处和水印系统,以帮助区分真实与合成并跟踪模型泄漏;强大的审计和认证生态系统;人工智能造成的伤害的责任;为技术人工智能安全研究提供强大的公共资金;以及资源充足的机构来应对人工智能将造成的巨大的经济和政治破坏。
人类可以享受人工智能带来的繁荣未来。成功创建强大的 AI 系统后,我们现在可以享受“AI之夏”,收获回报,设计这些系统以造福所有人,并为社会提供适应的机会。社会已经暂停其它可能对社会造成灾难性影响的技术。我们可以在这里这样做。让我们享受一个漫长的 AI 夏天,而不是毫无准备地走进收获未知的秋天。
支持上述说法的朋友,现在也可以加入联合署名:https://futureoflife.org/fli-open-letters/