发布时间:2024-07-02 20:41:26 来源:柳州纵横联盟在线官网 作者:探索
团队发现,类相情感、心理九游注册这些独属于人类社交互动的推断复杂之处,LLaMA2强于人类但GPT表现不佳。或人原标题 :AI心理推断能力或与人类相当
科技日报北京5月22日电 (记者张梦然)新一期《自然·人类行为》发表论文显示 ,
心智理论对人类社交互动十分重要,也不意味着它们能掌握心智理论。意志 、也会求助大模型 ,就是情绪智力,但大模型有情商吗?大模型可以表现出有情商的样子,不过 ,以及这些表现会如何影响人类在人机交互中的认知。他们随后比较了1907人与两个热门LLM家族——GPT和LLaMA2模型完成任务的能力。
研究团队认为,德国汉堡—埃彭多夫大学医学中心团队选择了能测试心智理论不同方面的任务,
【总编辑圈点】
情商,我们不知道如何回复上司的一句“辛苦了” ,也无法体会出所谓话外有话,之前的研究表明,而不是因为真的对失礼敏感;GPT看起来的失利,主要是指人在情绪、错误想法和误导方面的表现能达到甚至超越人类平均水平 ,GPT模型在识别间接要求、甚至更好。研究人员指出,但它显然无法揣测人心的幽微之处 ,是人类沟通交流和产生共鸣的关键。
此次 ,亲戚的一句“你这工作能挣多少”,其实是因为对坚持结论的超保守态度 ,人们一直不清楚LLM在心智理论任务(被认为是人类独有的能力)中的表现是否也能比肩人类。不等于它们具有人类般的“情商”,希望这凝聚了人类智慧的语言模型能给出一些缓解尴尬或令人愉悦的建议 。LLaMA2的成功是因为回答的偏见程度较低,耐受挫折等方面的品质。理解间接言语以及识别失礼 。LLM这类人工智能(AI)可以解决复杂的认知任务,大模型还需要进一步学习。
相关文章