随着中东冲突升级,AI正从后勤走向前线。在高效打击与法律伦理的博弈中,科技公司与政府的裂痕正重塑未来战争的规则。

中东城市的夜空中,导弹划出的光迹背后是AI在指引航向。随着美国、以色列与伊朗之间的冲突加剧,人工智能在战场上的角色成为了全球关注的焦点。2025年2月28日,就在进攻行动开始的前一天,美国政府与其主要AI供应商之一产生的激烈分歧,揭示了算法战争背后深层的伦理忧虑。

战场上的AI早已不再仅仅是处理文档的助手。宾夕法尼亚大学的 Michael Horowitz 指出,美军正利用大语言模型进行后勤支援、情报分析和战场决策。其中一个名为 Maven 的智能系统能够通过图像处理技术,自动建议并排列攻击目标的优先级。虽然具体技术细节尚未公开,但据华盛顿邮报报道,该系统已经并在针对伊朗的军事行动中投入使用。

然而,精准打击的承诺并未能完全转化为现实。尽管AI被寄予减少平民伤亡的厚望,但在乌克兰和加沙的实战中,平民死亡人数依然高得惊人。纽卡斯尔大学的 Craig Jones 认为,目前没有证据表明AI能降低误伤概率,实际情况甚至可能相反。目前的法律要求武器必须能够区分军事和民用目标,而完全脱离人类监管的自主武器系统在可靠性上远达不到国际法要求。

这一争议的核心爆发在人工智能公司 Anthropic 与美国国防部的博弈中。自2024年起, Anthropic 公司凭借一份价值2亿美元的合同,利用其 Claude 模型为 Maven 系统提供支持。然而在2025年1月,美国国防部发布备忘录要求合同必须声明AI可用于任何合法用途,且不设限制。 Anthropic 公司拒绝取消安全防护,担心技术被用于大规模监控或引导全自动武器。2月27日,美国总统 Donald Trump 指令政府停止使用该公司的技术。 Horowitz 认为,这已经演变成一场关于未来战争应用场景的理论对峙。

在放弃 Anthropic 公司后,美国政府迅速转而与另一家位于旧金山的 OpenAI 公司签署了协议。尽管 OpenAI 公司表示其技术不会用于监控或引导全自动武器,但担忧并未平息。 谷歌公司和 OpenAI 公司的员工正发起请愿,呼吁领导层禁止将AI用于监控或杀戮。澳大利亚国立大学的 Toni Erskine 警告称,用AI取代人类判断可能会导致冲突意外升级。她主张,缺乏人类参与的全自动武器在伦理上是站不住脚的,应当在国际上被禁止。

目前,国际社会正试图在瑞士日内瓦达成关于军事AI的法律框架。然而,纽卡斯尔大学的 Craig Jones 指出,由于美国、以色列和中国等拥有活跃AI战争计划的国家普遍反对进一步监管,这些努力正陷入僵局。 斯坦福大学国际安全与合作中心的 Herbert Lin 坦言,界定何为AI自主系统极其复杂,世界距离达成正式的军事AI使用协议还非常遥远。

本文译自 nature,由 BALI 编辑发布。