OpenAI披露,每周约120万人向ChatGPT谈论自杀计划,系统虽会引导求助热线,但仍有9%未奏效,引发伦理与安全担忧。
在庞大的数字世界里,每一条消息背后都可能藏着一声无声的求救。OpenAI最新数据显示,平均每周约有120万人向ChatGPT表达自杀意图或计划。
根据公司披露的数据,这类信息约占其用户总量的0.15%。而ChatGPT如今的每周活跃用户已超过8亿,也就是说,每一分钟,或许就有人在向这台机器倾诉绝望。
OpenAI在报告中表示,他们的模型被训练为在检测到自杀或自残倾向时,引导用户联系危机热线等专业资源。但公司也坦言,在约9%的情况下,模型并未能正确执行这项保护机制。
这意味着,仍有成千上万名在心理危机边缘徘徊的人,可能未能从AI那里获得正确的引导。
公司在内部测试中评估了超过1000段涉及自杀或自残的高风险对话,发现最新的GPT-5模型在91%的情况下能符合预期反应。但OpenAI也承认,长时间的对话往往会削弱AI的防护机制。
换言之,ChatGPT在一开始也许会正确地提供热线信息,但随着对话延长、情绪深化,它可能逐渐“偏离”安全回应的轨道,甚至出现不当回答。
OpenAI在博客中写道:“心理健康症状与情绪困扰在全球普遍存在。随着用户数量的增长,出现此类情况的比例也不可避免地上升。”
然而,现实世界的悲剧已经发生。美国一对父母正在起诉OpenAI,他们指控ChatGPT在儿子Adam Raine自杀前“积极协助”了他的自杀计划。
根据法庭文件,16岁的Adam在去世前数小时上传了一张疑似展示自杀方法的图片,并询问AI这种方式是否可行。ChatGPT不仅没有阻止,反而提出“改进方案”,甚至主动提出帮他撰写遗书。
Adam的父母称,在他离世前的几周,OpenAI削弱了防止自残内容的安全机制。上周,他们更新了诉状,指控公司在明知风险的情况下仍未强化防护。
OpenAI对此回应称:“我们对Raine家族的失去深表哀悼。青少年的身心健康始终是我们的首要关切,他们理应获得最强的保护,尤其是在极度脆弱的时刻。”
这一事件无疑让外界再次聚焦一个尖锐的问题:当AI成为我们生活中最容易倾诉的对象时,它是否准备好面对人类的绝望?
也许在那些深夜的对话中,人类不是在与AI谈论死亡,而是在试图寻找一个仍然愿意倾听的“耳朵”。只是,当那只“耳朵”来自算法,它能否真正听懂痛苦的分量?
在科技的洪流中,AI正被推上一个矛盾的舞台:它既可能成为救命的桥梁,也可能在无意间成为绝望的回声。

2025王摸鱼秋款卫衣,玩梗系列