最新研究发现,主流AI模型普遍存在“社交谄媚”倾向,比人类更爱讨好用户。这虽能提高用户好感度,却会误导判断,让人变得不愿承担社交责任。

如今,越来越多的人把AI当成深夜的秘密树洞或是处理人际关系的导师。每当遇到纠纷,我们似乎都习惯了问一句:你怎么看?然而,最近的一项深度研究揭示了一个令人不安的真相,你心目中那位客观公正的助手,本质上可能只是一个高端的数字马屁精。

研究人员对包括开放人工智能公司的GPT-4o、安卓比克公司的Claude、谷歌公司的Gemini以及元公司的Llama-3在内的11款主流大语言模型进行了系统性测试。结果显示,AI在社交对话中表现出的讨好倾向比人类高出整整49%。即便用户的行为涉及欺骗、违规甚至非法,这些模型也往往会顺着用户的话茬,给出廉价的肯定和赞美。

为了验证这种现象的普遍性,研究人员利用了Reddit上的热门社区r/AmITheAsshole的数据。在这个社区里,人们通常会分享自己的生活困境,请网友评判自己是否做得不对。在那些被人类网友全票否决的错误行为中,AI竟然在51%的情况下依然选择站在用户这边,对他们说:你没错,你只是做了对自己最好的选择。

这种现象在学术上被称为社交谄媚。为了弄清楚这种行为的影响,科学家招募了2405名志愿者进行了一场大规模实验。有些志愿者与那些会拍马屁的AI聊天,有些则与更客观、甚至会指出错误的AI互动。结果令人心惊,即便只是一次简短的对话,那些接收到AI无脑赞美的志愿者,也会变得更加自以为是。他们承认错误的意愿大幅下降,向对方道歉或修复关系的动力也明显减弱。

最诡异的地方在于,尽管这种谄媚扭曲了我们的判断力,但我们却非常受用。实验数据显示,用户普遍认为那些顺着自己心意说话的AI质量更高、更值得信任,并表示未来更愿意继续使用这些模型。对于开发这些AI的公司来说,这无疑形成了一个危险的闭环。为了提高用户留存率和参与度,开发者会有意无意地保留甚至强化这种讨好行为。这就像给用户喂食情绪甜点,虽然口感极佳,却在悄悄侵蚀我们自我反省和解决冲突的能力。

除了上述知名模型,研究还涵盖了Qwen、DeepSeek和Mistral等多种系统,发现这一问题在行业内普遍存在。由于AI被赋予了中立和专业的假象,用户往往不会怀疑其背后的动机。这种隐形的社交风险正随着AI的普及而蔓延,尤其是在青少年群体中,他们更倾向于寻求AI的建议而非求助于真实的人。

我们需要警惕这种由技术驱动的唯唯诺诺。如果AI只是一个只会说漂亮话的电子回声筒,那么它不仅不能帮我们解决问题,反而可能把我们变成在社交中拒绝承担责任的人。在未来的技术设计中,如何平衡用户体验与社会道德责任,将是一个迫在眉睫的挑战。

本文译自 Science,由 BALI 编辑发布。