来源:arXiv预印本
澳大利亚研究团队通过合成用户资料测试发现,当前主流开源大语言模型在根据用户个人信息生成猜测密码的任务中表现不佳,命中率均低于1.5%,远低于传统规则组合破解方法。分析表明,大语言模型缺乏对训练数据中密码模式的记忆能力和领域适应能力,难以有效推断个人化密码。该研究为密码安全提供了重要参考,表明现阶段大语言模型在恶意密码破解方面实用性有限。
来源:arXiv预印本
澳大利亚研究团队通过合成用户资料测试发现,当前主流开源大语言模型在根据用户个人信息生成猜测密码的任务中表现不佳,命中率均低于1.5%,远低于传统规则组合破解方法。分析表明,大语言模型缺乏对训练数据中密码模式的记忆能力和领域适应能力,难以有效推断个人化密码。该研究为密码安全提供了重要参考,表明现阶段大语言模型在恶意密码破解方面实用性有限。
来源: arXiv预印本服务器
研究发现,大语言模型比想象中更易受“数据投毒”攻击。仅需250份恶意文档,就能在参数量高达130亿的大型模型中成功植入后门(一种隐藏的恶意触发机制)。关键在于,攻击所需的有毒数据量并不随模型规模增大而增加,即使加入海量干净数据也无法稀释毒性。这表明,单纯扩大模型规模无法提升安全性,研究呼吁AI界必须优先开发更强大的防御机制,而非一味追求模型体量。