best papers in 2025 - chunhualiao/public-docs GitHub Wiki

AlphaEvolve

下面列出 2025 年迄今最受瞩目的 10 篇人工智能研究论文(含 arXiv 预印本),依发表时间先后排序。它们皆已在权威会议获奖或在开源社区迅速引发高引用/大量 GitHub star 与媒体报道,因而被广泛视作今年 AI 领域“必读”成果。

# 论文 & 链接 发表平台 / 时间 核心贡献 影响力速览
1 《Safety Alignment Should Be Made More Than Just a Few Tokens Deep》 ICLR 2025 Outstanding Paper   (4 月 23 日) 揭示当今大模型安全对齐往往只作用于输出前几 token,“浅层对齐”导致易被 jailbreak;提出深层对齐与正则化目标,显著提升抗攻击性。 获 ICLR 最佳论文,已被多家安全团队采用做红队基线 (media.iclr.cc)
2 《Learning Dynamics of LLM Finetuning》 ICLR 2025 Outstanding Paper 建立统一框架解析指令微调 / 偏好优化过程中训练样本间的影响传播,解释“挤压效应”等现象并给出改进策略。 推动理解 LLM 微调可解释性研究 (media.iclr.cc)
3 《AlphaEdit: Null-Space Constrained Model Editing for Language Models》 ICLR 2025 Outstanding Paper 提出将编辑扰动投影到“保持知识”子空间的 Null-Space 技术,实现连续多次知识热修复而不遗忘旧知识。 为“模型编辑”任务树立性能新标杆 (media.iclr.cc)
4 《Every Bit Helps: Achieving the Optimal Distortion with a Few Queries》 AAAI-25 Outstanding Paper   (2 月 27 日) 解决多代理匹配中的信息不足失真问题,证明只需常数级查询即可达到理论最优 O(n^1/λ) 失真。 定量结束长期开放问题,被评为 AAAI 最佳论文 (aihub.org)
5 《Efficient Rectification of Neuro-Symbolic Reasoning Inconsistencies by Abductive Reflection》 AAAI-25 Outstanding Paper 以“认知反思”思想改进 NeSy 框架 ABL,实时检测并修正符号推理与神经输出矛盾。 将可解释符号推理有效嵌入深度模型 (aihub.org)
6 《Revelations: A Decidable Class of POMDPs with Omega-Regular Objectives》 AAAI-25 Outstanding Paper 通过“启示”信息机制把部分不可判定的 POMDP 安规问题化为可判定,并给出精确算法。 在理论 AI 与形式验证社区引起广泛关注 (aihub.org)
7 《VGGT: Visual Geometry Grounded Transformer》 CVPR 2025 Best Paper   (6 月 13 日) 设计纯前馈 Transformer,一次前向即可预测多视图 3D 场景几何,速度与精度双优于 NeRF 系方法。 夺得 CVPR 最佳论文,被称为“实时 3D 感知里程碑” (cvpr.thecvf.com)
8 《The BiGGen Bench: A Principled Benchmark for Fine-grained Evaluation of Language Models with Language Models》 NAACL-HLT 2025 Best Paper   (5 月 1 日) 用 LLM 自动生成/评分细粒度测试集,系统评估现有模型推理与偏见;同时发布可重现基准。 成为今年 LLM 评测领域引用最多的新基准之一 (2025.naacl.org)
9 《Self-Adapting Language Models (SEAL)》 arXiv 2506.10943 (6 月 12 日) 首次展示 LLM 无需外部监督即可“自举”生成微调数据并更新权重,朝终身学习迈出关键一步。 上线一周 GitHub⭐破 2k,Wired 专文报道 (arxiv.org, wired.com)
10 《SAM 2: Segment Anything in Images and Videos》 ICLR 2025 Honorable Mention 将 Segment Anything 扩展到流式视频,构建最大规模交互式分割数据集并显著提速 6×。 产业界快速集成至视觉标注与 VLM 预训练管线 (media.iclr.cc)

使用建议

  1. 快速扫读:先看摘要与图 1,把握方法要点与实验设置。
  2. 结合代码:10 篇中有 7 篇已开源,实现细节与复现脚本极具参考价值。
  3. 多维指标:留意论文附带的 GitHub starsPapers with Code 领跑榜Chatbot Arena 排名,可快速判断业界接受度。
  4. 关注后续讨论:顶会 Slack / Discord、OpenReview 评论、推特(X) 讨论常会揭示局限或改进方向。

以上排名综合了获奖情况、引用增速、社区热度与媒体报道,供研究选题与技术跟进时参考;如需更细分子领域(例如 RL、AI4Science)名单,欢迎再告诉我!