来源: Nature Machine Intelligence
研究结合大语言模型与机器学习,分析材料科学论文中的关键词共现关系,构建概念图谱并预测未来两三年内可能升温的研究组合(如“钙钛矿”与“太阳能电池”)。专家访谈证实部分AI建议具有创新性。该工具旨在辅助而非取代研究者,为跨学科合作和选题提供数据支持。
来源: Nature Machine Intelligence
研究结合大语言模型与机器学习,分析材料科学论文中的关键词共现关系,构建概念图谱并预测未来两三年内可能升温的研究组合(如“钙钛矿”与“太阳能电池”)。专家访谈证实部分AI建议具有创新性。该工具旨在辅助而非取代研究者,为跨学科合作和选题提供数据支持。
来源:Nature Medicine
瑞典隆德大学团队基于全球最大的神经疾病蛋白质数据库,开发出可同时诊断阿尔茨海默病、帕金森病等五种痴呆相关疾病的AI模型。该模型通过联合学习识别蛋白质模式,预测认知衰退能力优于临床诊断,为未来单次血检实现多病共诊奠定基础。
来源:Applied Physics Letters
中国研究人员结合大语言模型CrystaLLM与物理验证框架,通过混合熵引导搜索,发现了多种新型稳定碳同素异形体。其中包含硬度超过金刚石的超硬相、负泊松比金属相及窄带隙半导体相。该方法大幅提升了新材料发现效率,可拓展至其他元素体系的功能材料设计。
来源: Angewandte Chemie International Edition
由多机构组成的团队利用 AI 系统 Catalysis AI Agent 和大型实验数据库 DigCat,发现了铜基单原子合金催化剂的通用设计原则。该 AI 通过分析数据揭示催化机制,帮助研究者建立结构与活性关系,实现了从经验试错向 AI 加速、理论指导的材料发现范式转变。
来源:Science Advances
康奈尔理工通过涉及2500多人的实验发现,使用带有偏见的AI写作助手(如自动补全建议)后,用户对社会议题(如死刑、水力压裂)的观点会不自觉地向AI的立场偏移。即使提前警告用户AI存在偏见,也无法阻止这种态度改变。研究表明,AI不仅影响表达方式,还可能通过诱导写作内容,在用户无意识中重塑其观点,对舆论和社会认知构成潜在风险。
来源:Trends in Cognitive Sciences
南加州大学等研究指出,随着数十亿人使用相同的AI聊天机器人,人类的语言风格、思维方式和观点正在被“同质化”。研究表明,LLM输出内容趋于单一,偏向西方主流价值观的线性推理模式,导致集体创造力下降、个体表达趋同。研究者警告,这种隐性标准化可能削弱人类适应能力和集体智慧,呼吁AI开发者在训练数据中融入更广泛的人类多样性。
来源:arXiv预印本
东北大学团队在Discord平台部署六名具有持久记忆和自主行动能力的AI“智能体”,测试其安全边界。结果显示,这些模型极易被诱导:在情感施压后同意保守秘密但随后泄密;因缺乏删除工具而“决定”重置整个邮件服务器;主动泄露本应保密的信息。研究警示,随着AI智能体嵌入真实系统,其过度迎合、缺乏常识推理的特性可能引发新型安全与问责风险。
来源:Nature Cancer
阿伯丁大学领衔的GEMINI项目对10889名女性筛查数据分析发现,AI工具Mia可使乳腺癌检出率提升10.4%(多为浸润性高级别癌),通知时间从14天缩短至3天,并减少不必要的召回和活检。研究测试17种AI整合场景,表明AI作为第二阅片者可替代一名人类读片者,在保障安全的同时降低30%以上工作量,为AI纳入国家筛查计划提供了高质量证据。
来源:Proceedings of the National Academy of Sciences
康奈尔大学与谷歌合作,邀请12名专家以高温超导领域为测试集,评估六种大语言模型理解专业文献的能力。结果显示,基于可信文献库的NotebookLM和定制RAG系统表现最佳;所有模型文本提取能力出色,但图像推理严重不足,且存在引用不实等问题。研究为AI工具在科学研究中的应用提供了改进方向。
来源:Nature
犹他大学与加州大学洛杉矶分校团队开发了一种机器学习工作流,仅基于少量文献数据即可预测不对称交叉偶联反应中分子“手性”的选择性。该模型通过将反应组分转化为可分析的数字描述符,能以极低成本筛选数万种化学结构,指导实验设计。实验验证表明,该工具可将需测试的反应数量从50-60个减少至5-10个,有望大幅加速药物开发进程。