据报纸报道,一项在6月30日在自然和人类行为上发表的研究说,人类倾向于拒绝AI(AI)互动机器人的情感支持,除非他们对人类的同理心做出了错误的同情。 AI的通用对话机器人,尤其是使用大型语言模型(LLM)的通用对话机器人,因为他们面对公众,他们变得越来越受欢迎。您可以与用户互动并提供情感支持。先前的调查表明,LLM促进的工具可以确定用户的情绪状态,他们的反应也被视为同理心和同理心。但是,尚不清楚对话机器人的支持是否与人类支持相同。在这项研究中,以色列希伯来大学的阿纳特·佩里(Anat Perry)和他的同事发现,与人类相比,AI产生的支持被认为是缺乏同理心。研究人员进行了9项研究,并提出了6,282个受试者,并由AI产生答案,其中一些人由人类撰写,一些由IA对话机器人撰写。佩里等。受试者评估了他们收到的答案,并观察到,尽管同情心,但他们认为是人类的答案的评分更高。与AI的直接反应相比,受试者更愿意期望人类的反应。作者还发现,反应人类的受试者唤起了积极的情绪,例如舒适,感知,幸福,理解和负面情绪,例如焦虑,愤怒,痛苦或问题,这些反应标记为产生的反应。当受试者认为人类怀孕时使用了人工智能援助时,他们在同理心,积极的共鸣,积极的情绪和支持方面都获得了较低的分数。这项研究的建议是,AI的对话机器人提供的支持可能存在局限性。人们可以更欣赏人类的反应,尤其是当他们期望同情和情感支持时。但是,因为研究c沟通是简短的,在将来长期情感支持沟通中使用和接受AI工具需要更多的研究。 (Zhao xixi)相关论文信息:https://doi.org/10.1038/s41562-025-02247-w