来源:《自然》
美国伊利诺伊大学团队在《自然》发表研究,开发出人工智能工具EZSpecificity,可精准预测酶与底物的最佳组合。该工具通过整合酶-底物配对实验数据和分子对接模拟,利用机器学习算法分析酶序列并预测最适配的底物。在四类实际应用场景测试中,其预测准确率显著优于现有主流模型,对卤化酶的实验验证准确率达91.7%。该免费在线工具将推动生物催化、药物研发等领域的酶工程应用。
来源:《自然》
美国伊利诺伊大学团队在《自然》发表研究,开发出人工智能工具EZSpecificity,可精准预测酶与底物的最佳组合。该工具通过整合酶-底物配对实验数据和分子对接模拟,利用机器学习算法分析酶序列并预测最适配的底物。在四类实际应用场景测试中,其预测准确率显著优于现有主流模型,对卤化酶的实验验证准确率达91.7%。该免费在线工具将推动生物催化、药物研发等领域的酶工程应用。
来源:OpenAI研究论文
OpenAI最新研究通过数学证明,大模型幻觉(虚构信息)问题源于其逐词概率预测机制及训练数据稀疏性,即使数据完美仍不可避免。现有评估体系(二元评分惩罚“不确定”回答)进一步鼓励模型盲目猜测。虽可通过置信度阈值减少幻觉(如仅回答高确信问题),但会导致30%以上查询无答案,降低用户体验。更根本的是,不确定性感知需数倍算力支撑,成本过高,目前仅在高价值领域(如医疗、金融)具经济可行性。消费级AI因用户预期、评估方式及算力经济制约,幻觉问题短期内难以彻底解决。
来源:arXiv预印本服务器
Salesforce AI Research等机构的研究表明,主流AI工具(如Perplexity、You.com、Bing Chat及GPT-4.5)在回答问题时,约30%-47%的声明无法被其提供的来源支持。研究通过DeepTRACE框架测试300多个问题发现,AI在争议性话题中常呈现单方面观点且过度自信,容易形成“信息茧房”,同时存在虚构内容或引用不准确(部分系统引文准确率仅40%-80%)。结果显示当前AI搜索系统仍需大幅改进以确保可靠性与用户自主性。
来源:《PLOS One》
研究显示,当前AI语音合成技术生成的“声音克隆”已与真人录音难以区分。实验采用最先进工具生成两类合成语音(克隆特定人声与通用模型生成),参与者无法系统性识别AI语音,且评价其比真人声音更具“支配感”甚至更可信。研究者指出,仅需少量录音和低成本商用软件即可快速制作高仿语音,警示技术滥用风险,但也强调其在无障碍服务、教育等领域的积极潜力。研究呼吁社会尽快应对AI语音在伦理、安全与版权方面的挑战。