AI指示人们使聊天加热更热
栏目:行业动态 发布时间:2025-07-04 10:30
一项于6月30日发表的一项关于环境人的行为的研究,人们倾向于拒绝人工智能(AI)对话的情感支持,除非这种同情心被误认为是来自人的。 AI谈话的生成机器人,尤其是大语言模型(LLM)的用户,由于面对公众而越来越受欢迎。他们可以联系用户并提供情感支持。先前的研究表明,LLM驱动的工具可以确定用户的情绪状态,他们的反应也被视为富有同情心和同情。但是,在谈话机器人的支持具有人支持的效果相同之前,尚不清楚。在这项研究中,阿纳特·佩里(Anat Perry)及其同事在以色列希伯来大学(Hebrew University of Israel)中发现,与人们的支持思维相比,AI生成的支持可以看作是缺乏同理心,除非这些收到的回答标记为人类。研究人员进行了九项研究,显示了6,282个TOPICS AI产生的答复,并告诉他们一些回答是由人民撰写的,有些是由AI机器人撰写的。佩里(Perry)和合着者指出,即使受试者审查了他们收到的回答是同情的,他们对他们认为是人的回应有更高的审查。主题更愿意等待他们认为来自人类的反应,而不是AI的即时回应。作者还发现,受试者想到的人们的反应发展了更多积极的情绪,例如舒适,认可,幸福,理解和负面情绪,这种感觉,感受,愤怒,疾病或麻烦,而不是标记为AI生成的回应。当受试者认为人们在考虑回应时使用人工智能帮助时,他们都必须得分少于同理心,积极的共鸣,积极的情绪和支持。这项研究的结果表明,AI谈话机器人可能会提供支持限制。特别是当同理心或EM可以预期的是,人们可以欣赏人们的反应。但是,由于学习沟通很短,因此将来需要在长期交流情感支持中使用和接受AI工具的进一步研究。相关论文信息:https://dii.org/10.1038/s41562-025-02247-w
服务热线
400-123-4567