人工智能
聊天机器人能成为心理治疗师吗?
聊天机器人能成为心理治疗师吗?只有在你希望它们成为心理治疗师的情况下才可以。
最近,人工智能公司OpenAI的一位经理写道,她刚刚与公司的病毒式聊天机器人ChatGPT进行了一次“非常情感化、个人化的对话”。Lilian Weng在X(前身为Twitter)上发帖称:“以前从未尝试过心理治疗,但这可能就是它?”这引发了一系列负面评论,指责她淡化了心理疾病的严重性。
然而,对于Weng与ChatGPT的互动,可能可以通过本周在《自然机器智能》杂志上发表的一项研究中提到的安慰剂效应来解释。
来自麻省理工学院(MIT)和亚利桑那州立大学的一个团队要求300多名参与者与心理健康人工智能程序进行互动,并对他们对互动的期望进行了引导。
有些人被告知聊天机器人具有共情能力,有些人被告知它具有操纵能力,第三组人被告知它是中立的。那些被告知他们正在与一个关心人的聊天机器人交谈的人,比其他组更有可能认为他们的聊天机器人治疗师是值得信赖的。
报告的合著者Pat Pataranutaporn表示:“从这项研究中,我们可以看出在某种程度上,AI是观察者的AI。”
近年来,一些备受关注的初创公司一直在推动提供心理治疗、陪伴和其他心理健康支持的人工智能应用程序,这是一个巨大的商机。
但这个领域仍然是一个争议的焦点。
“奇怪、空洞”
与AI威胁到其他行业一样,批评者担心机器人最终会取代人类工作者,而不是与他们相辅相成。
在心理健康领域,人们担心机器人不太可能做得很好。
“心理治疗是为了心理健康,是一项艰苦的工作,”活动家和程序员Cher Scarlett在回应Weng在X上的初始帖子时写道。“自我调适是可以的,但不是同一回事。”
除了对AI的普遍担忧外,心理健康领域的一些应用程序最近的历史也有些问题。一款名为Replika的热门AI伴侣应用程序有时被宣传为带来心理健康益处,但用户长期以来一直抱怨该机器人可能过于关注性和具有侮辱性。此外,一个名为Koko的美国非营利组织在2月份进行了一项实验,为4000名客户提供使用GPT-3进行咨询,结果发现自动回复根本无法起到治疗的作用。
该公司的联合创始人Rob Morris在X上写道:“模拟的共情感觉奇怪、空洞。”
但是,由于不清楚他的客户是否知道他们的参与,Morris后来不得不为自己辩护,因为他的实验受到了广泛的批评。
“降低期望”
巴塞尔大学的David Shaw并未参与MIT/亚利桑那州的研究,他告诉法新社,这些发现并不令人惊讶。但他指出:“似乎没有参与者被告知所有聊天机器人都是胡扯。”
他说,这可能是最准确的引导。
然而,聊天机器人作为心理治疗师的想法与该技术的20世纪60年代起源紧密相连。
第一个聊天机器人ELIZA就是为了模拟一种心理治疗而开发的。MIT亚利桑那州的研究人员将ELIZA用于一半的参与者,将GPT-3用于另一半。尽管GPT-3的效果要强得多,但被积极引导的用户通常仍然认为ELIZA是值得信赖的。
因此,Weng对她与ChatGPT的互动感到满意并不令人惊讶——她就是该公司的员工。
MIT亚利桑那州的研究人员表示,社会需要掌握有关人工智能的叙述。
该论文辩称:“向社会呈现人工智能的方式很重要,因为它改变了人工智能的体验。”“可能有必要引导用户降低或更加负面的期望。”
本文译自 medicalxpress,由 BALI 编辑发布。