美国卫生与公众服务部部长Robert F. Kennedy Jr.正推行大规模AI实验。尽管愿景宏大,但400多项应用中多为处理琐碎文书。面对系统幻觉与裁员压力,这场算法革命正引发安全与政治争议。
Robert F. Kennedy Jr.现在是个不折不扣的AI拥趸。2026年2月初,在纳什维尔举行的一场名为夺回你的健康的巡回演讲中,这位美国卫生与公众服务部部长在谴责超加工食品和呼吁美国人多摄入蛋白质的间隙,特别提到了这项技术。他宣称,他领导的部门正在引领联邦政府将AI引入所有活动,并承诺未来将有一支机器人大军改变医学,消除欺诈,并让每个人的口袋里都拥有一个虚拟医生。
这种对AI的热情并非一时兴起。早在2025年5月,他就向美国国会表示AI革命已经到来。紧接着在6月,美国食品药品监督管理局推出了名为Elsa的定制AI工具,旨在加快药物审查并协助机构工作。到了12月,美国卫生与公众服务部发布了一份AI战略,概述了如何利用该技术推动部门现代化,辅助科学研究,以及推进肯尼迪提出的让美国再次健康运动。甚至在最近的一封内部邮件中,美国疾病控制与预防中心也在鼓励员工尝试ChatGPT、Gemini和Claude等工具。
然而,当美国卫生与公众服务部在2026年1月公布了一份包含约400项AI用途的清单时,理想与现实的落差显现了出来。从表面看,这些应用很难称得上是革命性的。该机构正在开发聊天机器人来生成社交媒体帖子,处理公共记录请求的脱敏工作,或者撰写人事行动说明。有些应用甚至显得平庸,比如在办公协作软件Slack中使用AI,或者用它来管理电子健康记录、审查拨款申请和总结科学文献。
在RealFood.gov这个展示肯尼迪饮食愿景的新政府网站上,虽然承诺提供关于真实食物的真实答案,但点击后只是在新窗口中打开了Elon Musk旗下的xAI聊天机器人Grok。
这些看似枯燥的后台应用背后隐藏着一个无奈的现实:在过去的一年里,成千上万的部门员工被解雇或选择买断工龄离职,机构不得不转向AI来弥补人力短缺。例如,美国卫生与公众服务部民权办公室正在试点用ChatGPT来识别涉及医疗补助计划的法院裁决模式,理由正是人员不足。
这种依赖性带来了巨大的风险。AI工具持续产生不可预测的错误。在2025年5月发布的一份关于慢性病趋势的标志性报告中,文中充斥着疑似由AI编造的虚假引用。虽然白宫将其归咎于格式错误并随后进行了修正,但这种幻觉问题在实际工作中依然严重。
一名美国食品药品监督管理局的员工透露,备受推崇的Elsa表现相当糟糕,在处理一半的任务时都会失败。有一次,该员工要求Elsa查询数据库中一个三位数的代码含义,结果机器人给出了错误的答案。由于担心中毒和幻觉,许多员工宁愿自己阅读原始文件,也不敢使用AI生成的摘要。另一名官员曾尝试用Elsa评估食品安全报告,结果AI在处理片刻后便草率地给出了没问题的结论,而该官员清楚地知道报告中存在问题。
当然,AI在医疗领域的潜力并非全是泡沫。目前,医生往往要花费超过三分之一的时间来写笔记和处理保险索赔。如果AI能自动化这些琐事,在这个长期缺人的行业里,医护人员就能把更多时间留给病人。美国卫生与公众服务部也在尝试一些雄心勃勃的项目,比如利用AI更快地识别药物安全问题,研究疟疾寄生虫的基因组。
值得一提的是,由Google DeepMind开发的蛋白质折叠算法AlphaFold已经获得了诺贝尔奖,并被全球研究人员用于推进药物发现,美国卫生与公众服务部的科学家也不例外。
但技术是中立的,目的却带有底色。当肯尼迪谈到用AI消除欺诈时,这可能意味着利用算法裁掉更多对公共卫生基础设施至关重要的员工。更具争议的是,清单显示美国卫生与公众服务部正在部署AI来识别违反总统指令的职位,涉及终止激进且浪费的政府多元化项目等内容。生成式AI无疑是提升官僚效率和科研能力的利器,但比技术能力更紧迫的问题是,这些工具最终将被用来实现什么样的目标。
本文译自 The Atlantic,由 BALI 编辑发布。