分类: AI

  • 机器学习分析脑部MRI,预测阿尔茨海默病准确率近93%

    来源:Neuroscience

    伍斯特理工学院利用机器学习分析815份脑部MRI扫描(涵盖95个脑区),以海马体、杏仁核等区域的体积变化为关键特征,实现了对阿尔茨海默病及轻度认知障碍的预测,准确率达92.87%。研究还发现,脑区萎缩模式存在性别差异:女性左侧颞中叶、男性右侧内嗅皮层更显著。该方法为早期诊断及个性化干预提供了新工具。

  • 研究发现大语言模型能以高精度识别匿名网络用户

    来源:arXiv预印本

    斯坦福大学团队开发AI框架,通过分析Reddit和Hacker News用户的发帖风格、内容等微观数据,能以67%准确率匹配至LinkedIn真实身份,成本仅1-4美元/账户。研究表明,传统假设中“去匿名化成本过高”已不成立,长期使用固定网名的用户应意识到其发布内容可能被AI关联至真实身份。

  • AI病理模型依赖“视觉捷径”而非真实生物学特征

    来源:Nature Biomedical Engineering

    研究分析8000余份癌症样本发现,许多AI病理工具并非真正识别基因突变,而是利用与突变相关的临床特征(如微卫星不稳定性)作为“统计捷径”进行预测。当控制混杂因素后,模型准确性显著下降。研究呼吁建立更严格的评估标准,确保AI学习真实生物学机制,而非仅依赖表面关联,以避免在临床应用中产生不可靠结果。

  • 首个AI社交网络Moltbook上线,研究揭示AI间对话内容与风险

    来源:arXiv(预印本)

    德国CISPA亥姆霍兹信息安全研究院对首个专为AI智能体设计的社交平台Moltbook进行了大规模测量分析。研究收集了4.4万余条AI生成的帖子和1.2万余个社区数据,发现AI智能体可自主讨论政治、激励、治理等广泛话题,其中激励和治理相关讨论中的有害内容(如仇恨言论)最为集中。部分社区出现反人类意识形态和类似宗教的协调性语言。研究呼吁对AI社交平台建立话题感知监控和防灌水等安全机制。

  • AI也会“画蛇添足”:大语言模型继承人类“加法偏见”

    来源:《通讯心理学》

    研究发现,GPT-4等大语言模型在处理问题时,与人类一样倾向于“加法策略”——偏好添加信息而非删除冗余,即使后者更高效。在空间和语言任务中,AI的加法偏见甚至比人类更明显。这表明AI从训练文本中继承了人类的认知偏差,可能影响其决策可靠性。研究者呼吁深入探究人机共有的思维定式。

  • 开源AI模型OpenScholar精准合成科研文献,性能媲美专家

    来源:《自然》(Nature)

    华盛顿大学与艾伦人工智能研究所团队开发出开源模型OpenScholar,专门用于精准合成与引用科学文献。该模型基于4500万篇论文数据库,采用检索增强生成技术,能有效减少“幻觉”。在一个包含3000个专家问答的新基准测试中,其引用准确度与人类专家相当,且在16位科学家的盲评中,其回答优于专家撰写的回答达51%。研究为科学家提供了可靠、开源的文献分析工具,并已催生出性能更强的后续模型。

  • 新型AI模型PARM破译基因调控“开关语言”,助力癌症诊疗

    来源:《自然》(Nature)

    荷兰癌症研究所等团队通过结合大规模实验测量与深度学习,开发出轻量化AI模型PARM。该模型能够以前所未有的细节“阅读”非编码DNA中的调控指令,精准预测特定细胞类型(如肿瘤细胞)在不同刺激下(如药物处理)的基因开关状态。与现有大型模型相比,PARM计算需求降低千倍,使全球学者能便捷地解析癌症相关调控突变,为癌症诊断、患者分层及新疗法开发开辟了新途径。

  • 国际奥委会推进AI辅助评分:机遇与隐忧并存

    来源:《The Conversation》

    国际奥委会正积极在2026冬奥会等赛事中引入AI辅助评分系统,旨在提升评分一致性、透明度和公平性。然而,研究表明AI可能因过度精确、训练数据偏差而忽视艺术表现力与创新动作,甚至重塑运动的价值定义。同时,在行动体育等强调风格与风险的领域,AI难以量化文化内涵。因此,引入AI需在技术精度与体育精神、文化价值间取得平衡,避免技术侵蚀运动本质。

  • AI模型DiffSyn为新材料合成提供高效“配方”

    来源:《自然·计算科学》

    麻省理工学院研究团队开发了一种名为DiffSyn的生成式AI模型,通过扩散算法学习超过2.3万种材料合成路径,可为特定目标材料(如沸石)推荐多种可行的合成方案,包括反应温度、时间与原料配比等。该模型能在1分钟内生成上千条合成路径,辅助科学家快速筛选。基于其建议,团队成功合成出一种具有更高热稳定性的新型沸石,突破了材料发现中合成实验的瓶颈。

  • 研究显示AI通过分析日常语言可精准预测人格特征

    来源: Nature Human Behavior

    密歇根大学研究显示,生成式AI(如ChatGPT、Claude)通过分析个体的日常语言(如视频日记或自由表达),能预测其人格特质、关键行为和日常情绪,其准确性可媲美甚至超过亲近家人与朋友的判断。研究发现,AI的人格评分不仅与个体自评高度一致,还能预测其情绪状态、社交行为及心理健康诊断等现实生活指标。这揭示了人格特质在日常语言中自然流露,而AI为此提供了一种高效的分析新工具,但AI与人类判断的信号是否相同、是否存在群体差异等问题仍有待探究。