来源:《通讯心理学》
研究发现,GPT-4等大语言模型在处理问题时,与人类一样倾向于“加法策略”——偏好添加信息而非删除冗余,即使后者更高效。在空间和语言任务中,AI的加法偏见甚至比人类更明显。这表明AI从训练文本中继承了人类的认知偏差,可能影响其决策可靠性。研究者呼吁深入探究人机共有的思维定式。
来源:《通讯心理学》
研究发现,GPT-4等大语言模型在处理问题时,与人类一样倾向于“加法策略”——偏好添加信息而非删除冗余,即使后者更高效。在空间和语言任务中,AI的加法偏见甚至比人类更明显。这表明AI从训练文本中继承了人类的认知偏差,可能影响其决策可靠性。研究者呼吁深入探究人机共有的思维定式。
来源:《通讯心理学》
研究发现,无论是人际交流、社交媒体还是AI聊天机器人(如ChatGPT),心理健康建议普遍存在“加法偏见”——倾向于推荐新增活动(如运动、冥想),而非建议停止有害行为(如戒赌或减少熬夜)。这种偏见源于人们潜意识认为“做加法”更可行、更有效,且对亲友的减法建议多于给自身。AI也学习了这一模式,可能加剧用户的心理负担。研究者呼吁提供更平衡的建议,引导人们思考如何减少而非一味增加任务。