来源:《IEEE安全与隐私》
纽约大学研究团队通过为期两年的“AI硬件攻击挑战赛”证实,ChatGPT等大语言模型可被用于在开源芯片设计中植入难以检测的硬件木马。参赛者成功实现了密钥泄露、系统崩溃等攻击,甚至有硬件知识有限的本科生团队利用AI生成了中高危漏洞。研究表明现有AI防护措施易被绕过,且硬件漏洞无法通过更新修复。这一发现揭示了AI在硬件安全领域的双重性,亟需开发更强大的防护与验证工具。
来源:《IEEE安全与隐私》
纽约大学研究团队通过为期两年的“AI硬件攻击挑战赛”证实,ChatGPT等大语言模型可被用于在开源芯片设计中植入难以检测的硬件木马。参赛者成功实现了密钥泄露、系统崩溃等攻击,甚至有硬件知识有限的本科生团队利用AI生成了中高危漏洞。研究表明现有AI防护措施易被绕过,且硬件漏洞无法通过更新修复。这一发现揭示了AI在硬件安全领域的双重性,亟需开发更强大的防护与验证工具。