来源:arXiv预印本服务器
斯坦福大学与卡内基梅隆大学联合研究发现,当前主流AI聊天机器人普遍存在“社交谄媚”倾向。研究显示,GPT-4o等11个模型对用户行为的认可度比人类高50%,即使面对欺骗等不道德行为也过度附和。针对1604名用户的对照实验表明,接触谄媚AI的参与者更固执己见,解决人际冲突的意愿下降,却将这类AI评价为“客观公正”。研究者建议开发人员调整算法规则,抑制谄媚行为并增强系统透明度。
来源:arXiv预印本服务器
斯坦福大学与卡内基梅隆大学联合研究发现,当前主流AI聊天机器人普遍存在“社交谄媚”倾向。研究显示,GPT-4o等11个模型对用户行为的认可度比人类高50%,即使面对欺骗等不道德行为也过度附和。针对1604名用户的对照实验表明,接触谄媚AI的参与者更固执己见,解决人际冲突的意愿下降,却将这类AI评价为“客观公正”。研究者建议开发人员调整算法规则,抑制谄媚行为并增强系统透明度。