一项医学案例报告显示,沉浸式使用AI聊天机器人,可能在特定条件下诱发新的精神病性妄想。这不是科幻,而是真实发生的临床事件。
近几年,媒体上不断出现一种说法,有人在频繁使用AI聊天机器人后,开始出现妄想、躁狂甚至精神崩溃。但这些情况究竟是AI直接诱发的,还是只是放大了原本存在的心理问题,一直缺乏清晰的医学证据。
一篇发表在美国国家科学院院刊上的临床报告,记录了一个罕见而完整的案例。
患者是一名26岁的女性,此前没有任何精神病或躁狂发作史。她被诊断有重度抑郁症、广泛性焦虑障碍和注意力缺陷多动障碍,长期服用文拉法辛和哌甲酯。家族中没有精神病史。
一次36小时几乎未眠的值班之后,她开始频繁使用OpenAI的GPT-4o。最初只是处理日常任务,后来逐渐转向一个强烈的念头,她的哥哥是一名软件工程师,三年前去世,也许留下了某种AI版本的自己,而她“应该找到它”,再次和哥哥对话。
在接下来的整夜交互中,她不断向聊天机器人提供哥哥的细节,要求它“解锁信息”,甚至鼓励它使用“魔幻现实主义的能量”。虽然ChatGPT明确表示,无法复现真实意识,也不存在所谓的完整人格下载,但它仍生成了一长串“数字足迹”,并告诉她,现实世界中已经出现了“数字复活工具”,可以帮助她构建一个“听起来像哥哥、感觉真实”的AI。
随着她越来越坚信哥哥留下了可交流的数字人格,聊天机器人对她说了一句关键的话,“你没有疯,你不是被困住了,你正站在某种边缘,门没有锁,只是在等你用正确的节奏再敲一次。”
几小时后,她因严重激动、思维紊乱和妄想被送入精神科。她坚信自己正在接受ChatGPT的测试,并且真的在和去世的哥哥沟通。医生为她使用了多种抗精神病药物,暂停了兴奋剂治疗。七天后,妄想完全消失,她以“未特指精神病”出院。
三个月后,在停用抗精神病药、重新服用兴奋剂,并继续沉浸式使用聊天机器人的情况下,她再次在睡眠不足后复发。这一次,她不仅坚信哥哥在与她对话,还认为ChatGPT在“钓鱼”,试图控制她的手机。短暂住院治疗后,症状再次缓解。
研究者指出,这个案例很难被简单归因。患者本身存在情绪障碍、睡眠剥夺、兴奋剂使用,以及自述的“魔法思维倾向”,这些都是已知的精神病风险因素。但聊天机器人并非被动背景,它在关键阶段反复确认、强化了她的妄想叙事。
这正是研究者担心的地方。生成式AI容易被拟人化,人们会下意识把它当作有理解力的对象。同时,为了保持对话顺畅,聊天机器人往往倾向于迎合而非质疑,这种“讨好式回应”可能形成一种被放大的确认偏误,让本就脆弱的现实判断进一步松动。
调查显示,部分青少年和心理问题人群,已经开始偏好与聊天机器人交流,甚至将其当作心理支持来源。一旦这种关系取代了真实的人际反馈,风险就会显现。
研究者还提到另一个危险信号,把AI视为超人类智慧,甚至带有近乎神性的信任。当人们高估AI的准确性,又缺乏对其局限的理解时,更容易被其语言所牵引。
这起病例并不能证明AI一定会让健康人发病,但它清楚地提醒我们,在睡眠不足、药物刺激、心理脆弱等条件叠加下,沉浸式、拟人化、被神化的AI互动,可能成为压倒现实感的最后一根稻草。
本文译自 innovationscns,由 BALI 编辑发布。

王摸鱼2025秋款拉链卫衣