人工智能
打破生成式AI的神话
数据中心、光纤网络等基础设施构成了数字世界的物理基础,而我们对这个世界的理解大多来自于那些售卖技术服务的公司。这些公司通过营销构建了一种技术神话,尽管这些解释简单易懂,但往往牺牲了准确性。
营销和设计团队在技术推广中起着重要作用,他们通常通过简化复杂性或模糊难题来吸引用户。简单的比喻帮助新技术迅速传播,但也可能导致我们对这些技术的理解出现偏差。为确保技术的社会未来,我们需要重新思考这些技术神话。
神话的重要性
来自剑桥大学未来智能研究中心的Daniel Stone指出,神话和比喻不仅仅是修辞工具,它们还传递了权力信息——谁拥有权力,如何使用它,以及为谁服务。他认为,选择能够促进健康、合作、伦理和责任的神话,可以帮助大众更好地理解AI及其应用。
要建立有益的神话,首先需要了解当前围绕人工智能的神话。这些神话虽然常见,但却深刻地影响了我们对AI的思考。以下是几个主要神话的解析:
控制的神话
生成式AI处在随机性和控制之间的紧张状态。随机性难以被市场接受,因此“控制的神话”通过强调用户对AI的控制力,掩盖了系统的不一致性,比如所谓的“幻觉”。这种简化可能会导致用户对AI工作原理的误解。
生产力的神话
生产力神话宣扬AI可以节省时间和提升效率,但忽略了谁在控制技术的使用。例如,广告展示的AI帮助生成营销文案的场景,忽略了人类劳动和思考的价值。研究显示,虽然企业高管期望AI提升生产力,但实际情况是员工的工作负担反而增加了。
提示的神话
提示的神话是LLM兴起的核心,它强调了用户通过提示框对AI的控制。然而,实际情况是,用户对系统的控制力往往被高估。提示窗口的存在让人误以为对系统的影响力比实际更大。
智能的神话
智能神话利用人类思维的隐喻,模糊了AI系统和人类认知之间的界限。这种混淆可能影响政策制定者,将人类赋予的法律权利错误地延伸到机器上。
学习的神话
学习的神话将LLM的训练过程比作人类学习,但这种比喻忽略了两者的本质区别。AI模型并非通过“学习”诞生,而是数据分析的产物。这种神话削弱了人类学习的独特社会价值。
创造力的神话
生成式AI的创造力神话将创作过程简化为一系列的步骤,忽略了人类创造力的多样性和独特性。这种神话试图在法律上为AI模型争取与人类创作者同等的权利。
未来主义的神话
未来主义的神话假设AI系统的改进是不可避免的,并回避了当前AI部署中的实际问题。例如,规模化的神话认为,通过更多数据训练,AI系统的问题将得到解决,但这往往忽视了数据偏见等问题。
更严谨的神话
Stone提到,比喻思维有助于我们理解复杂的抽象概念,但我们需要对这些比喻保持警惕,特别是在AI领域。当我们挑战这些神话时,实际上是在推动更加健康和理性的技术理解。像华盛顿公平增长中心和Aspen Digital这样的组织,正致力于为研究人员和记者提供工具,以应对技术神话的影响。
AI的伦理和价值声明虽重要,但若依赖于这些神话,可能会削弱对AI实际影响的现实讨论。因此,我们需要共同努力,建立对这些技术的更严谨理解。
本文译自 TechPolicy.Press,由 BALI 编辑发布。