来源:《通讯心理学》
研究发现,GPT-4等大语言模型在处理问题时,与人类一样倾向于“加法策略”——偏好添加信息而非删除冗余,即使后者更高效。在空间和语言任务中,AI的加法偏见甚至比人类更明显。这表明AI从训练文本中继承了人类的认知偏差,可能影响其决策可靠性。研究者呼吁深入探究人机共有的思维定式。
来源:《通讯心理学》
研究发现,GPT-4等大语言模型在处理问题时,与人类一样倾向于“加法策略”——偏好添加信息而非删除冗余,即使后者更高效。在空间和语言任务中,AI的加法偏见甚至比人类更明显。这表明AI从训练文本中继承了人类的认知偏差,可能影响其决策可靠性。研究者呼吁深入探究人机共有的思维定式。