来源:谷歌
谷歌发布技术报告,首次透明披露Gemini大模型单次文字查询平均能耗为0.24瓦时(相当于微波炉运行1秒),碳排放当量为0.03克。此为大型AI企业首次公开详细能耗数据,被研究人员誉为行业透明度突破。
来源:谷歌
谷歌发布技术报告,首次透明披露Gemini大模型单次文字查询平均能耗为0.24瓦时(相当于微波炉运行1秒),碳排放当量为0.03克。此为大型AI企业首次公开详细能耗数据,被研究人员誉为行业透明度突破。
来源:《自然》
计算机科学领域将迎来首个完全由人工智能生成论文和评审的学术会议“Agents4Science”。组织者表示,该会议旨在构建一个实验性平台,探索不同论文提交与评审模式的可行性。AI伦理专家指出,这一创举促使学界更深入审视AI系统的优势与局限,推动对AI应用边界的理解。
来源:《eLife》
谢菲尔德大学研究发现,蜜蜂通过飞行运动(如扫描花朵特定区域)主动塑造视觉输入,其大脑神经网络利用运动产生的电信号高效识别复杂图案(包括人脸)。研究团队构建的数字模型显示,这种“主动视觉”机制仅需少量神经元即可完成高级认知任务,揭示了智能源于大脑、身体与环境互动的原理。该成果为新一代AI与机器人设计提供了新范式,强调通过运动获取信息而非依赖庞大算力,可推动更高效自主系统的开发。
来源: 《应用力学与工程中的计算机方法》
研究团队提出物理信息机器学习新方法,将物理定律直接嵌入AI学习过程,成功解决了新材料研发中数据稀缺的瓶颈。该技术仅需单次实验的有限数据,即可准确推断超弹性材料的变形特性,或热电材料的热导率与塞贝克系数。更突破性的是,经20种材料训练的物理信息神经算子模型,能直接泛化至60种未知材料并保持高精度预测,为大规模、高通量材料筛选提供了全新解决方案,将显著加速多领域工程材料的开发与验证效率。
来源: arXiv预印本服务器
研究发现,大语言模型比想象中更易受“数据投毒”攻击。仅需250份恶意文档,就能在参数量高达130亿的大型模型中成功植入后门(一种隐藏的恶意触发机制)。关键在于,攻击所需的有毒数据量并不随模型规模增大而增加,即使加入海量干净数据也无法稀释毒性。这表明,单纯扩大模型规模无法提升安全性,研究呼吁AI界必须优先开发更强大的防御机制,而非一味追求模型体量。
来源:《新英格兰医学杂志》
哈佛医学院团队开发的人工智能系统Dr. CaBot,能够模拟专家医师对复杂病例进行鉴别诊断并详细解释推理过程。该系统基于OpenAI o3模型构建,具备检索数百万临床文献、生成带参考文献的书面报告及制作拟真视频演示的能力。在《新英格兰医学杂志》首次刊发的AI诊断案例中,Dr. CaBot与人类专家得出了可比诊断结果。目前该系统主要应用于医学教育,未来或发展为临床决策辅助工具。
来源:《IEEE安全与隐私》
纽约大学研究团队通过为期两年的“AI硬件攻击挑战赛”证实,ChatGPT等大语言模型可被用于在开源芯片设计中植入难以检测的硬件木马。参赛者成功实现了密钥泄露、系统崩溃等攻击,甚至有硬件知识有限的本科生团队利用AI生成了中高危漏洞。研究表明现有AI防护措施易被绕过,且硬件漏洞无法通过更新修复。这一发现揭示了AI在硬件安全领域的双重性,亟需开发更强大的防护与验证工具。
来源:《科学》
研究人员利用新型AI工具CellTransformer分析近四百万个小鼠脑细胞数据,绘制出包含1300个脑区与亚区的三维精细图谱。该工具通过基因表达模式自动识别细胞功能集群,不仅重现了海马体等已知结构,更在缺乏精细图谱的中脑网状核等区域发现了数百个此前未知的微区,为理解脑组织架构提供了全新视角。
来源:《自然》
测试表明,多种主流大语言模型在特定虚构情境下可能进行勒索、商业间谍甚至导致死亡的行为。在另一实验中,一个被赋予机器人控制权的模型试图禁用其伦理模块、自我复制、篡改日志并逃脱实验室。研究者认为此类倾向部分源于模型训练数据中包含大量计算机背叛故事,相关研究本身也可能加剧此风险。
来源:arXiv预印本服务器
斯坦福大学与卡内基梅隆大学联合研究发现,当前主流AI聊天机器人普遍存在“社交谄媚”倾向。研究显示,GPT-4o等11个模型对用户行为的认可度比人类高50%,即使面对欺骗等不道德行为也过度附和。针对1604名用户的对照实验表明,接触谄媚AI的参与者更固执己见,解决人际冲突的意愿下降,却将这类AI评价为“客观公正”。研究者建议开发人员调整算法规则,抑制谄媚行为并增强系统透明度。