AI仅凭“自信”学会推理,浙大校友复刻DeepSeek长思维链涌现,强化学习无需外部奖励信号

复刻 DeepSeek-R1 的长思维链推理,大模型强化学习新范式 RLIF 成热门话题。

UC Berkeley 团队共同一作 Xuandong Zhao 把这项成果称为:

大模型无需接触真实答案,仅通过优化自己的信心,就能学会复杂推理。

具体来说,新方法完全不需要外部奖励信号或标注数据,只需使用模型自身的置信程度作为内在奖励信号。

与使用外部奖励信号 GRPO 相比,新方法在数学任务上不需要标准答案也能提升基础模型性能,在代码任务上表现得更好。

几乎同一时间,另外一篇论文《RENT: Reinforcement Learning via Entropy Minimization》也验证了相似的结论。

作者表示两者的主要区别在于使用 KL 散度和最小化熵衡量自信程度。

Dropbox 工程副总裁看后表示:Confidence is all you need。

" 自信 " 驱动的强化学习

长期以来,训练大模型主要依赖两种方式:

要么需要大量人工标注(如 ChatGPT 的 RLHF),要么需要可验证的标准答案(如 DeepSeek 的 RLVR)。

前者成本高昂且可能引入偏见,后者则局限于数学、编程等有明确答案的领域。

那么当 AI 能力逐渐接近甚至超越人类时,能否让模型仅凭自身产生的内在信号,摆脱对外部监督的依赖?

针对这个问题,UC Berkeley 团队提出新训练方法 Intuitor,计算模型预测分布与均匀分布之间的 KL 散度作为 " 自信程度 "。

相当于人类做题时,如果对答案有把握思路也会更清晰,当自信不足的时候往往需要重新思考。

通过优化这个内在信号,INTUITOR 鼓励模型生成它自己 " 更有把握 " 的回答,也能促使模型生成更结构化的推理过程。

在实验中,1.5B 和 3B 的小模型也涌现出与 DeepSeek-R1 类似的长思维链推理行为。

论文还指出,内在奖励信号还获得一个额外的好处:从机制上降低了 " 奖励黑客 " 的风险。

传统外部奖励信号的强化学习容易被 " 钻空子 ",如模型可能生成语法正确但逻辑错误的代码来匹配测试用例,或在数学题中直接背答案而非推理。

在 INTUITOR 中,团队发现如果使用离线学习,在训练约 100 步的时候模型也学会了作弊:在回答中附加一个已经解决的简单问题来提高自信度分数。

但使用在线学习就可以避免这个问题,评估标准随着模型能力哦一起进化,作弊策略变得无效。

实验结果:不仅会做题,还会举一反三

团队首先实证研究了 INTUITOR 框架对 LLMs 数学推理能力的提升。

实验选取Qwen2.5-1.5B/3B作为基础模型,使用自我确定度作为唯一的奖励信号,并将其分别置于INTUITOR和两个基线方法(GRPO、GRPO-PV)在 MATH 数据集的预训练中。

使用对话提示,每次处理 128 道题目并各生成 7 个候选解决方案,KL 惩罚系数设置为 0.005。

在数学推理、代码生成、指令遵循的基准测试中进行性能评估,结果如图所示:

实验表明,在通过 INTUITOR 进行微调后,Qwen2.5-1.5B 从最初只会输出重复的无意义内容且对话任务得分均低于 10%,转变为无效输出大幅减少、响应长度有效增加。

在结构化推理能力上,团队还发现INTUITOR 早期学习速度更快,如 Qwen2.5-3B 在 GSM8K 基准测试上 INTUITOR(0.811)始终优于 GRPO(0.758)。

此外,INTUITOR 在多任务泛化上也表现优秀,例如当 Qwen2.5-3B 在代码生成任务上,虽然相对滞后但持续增长,最终性能比 GRPO 高8%,相对提升65%。

同时团队还观察到,在进行长链推理时,INTUITOR 模型在生成完整代码前,都会添加自然语言推理 (如 " 为解决 X 问题,需先执行 Y 步骤 "),据推测也许这就是 INTUITOR 能够在测试中始终表现出色的原因之一。

它的演进过程大概可以描述为三个阶段:

模型学会生成代码,实现准确率提升和无效响应减少。

进行代码前推理以促进自我理解。

逐步细化生成带详细推理的有效代码。

为了评估自我确定度作为奖励的鲁棒性,研究人员还将离线自我确定度(来自固定基础模型的奖励)与在线自我确定度(来自不断进化的策略模型的奖励)进行了比较。

实验发现离线奖励会在 100 步后通过添加无关内容导致准确率崩溃,而在线奖励与策略协同演化,可有效防止破解。

为进一步评估自我确定度作为奖励信号的质量,研究人员还分析了模型在 MATH500 响应中生成的自我确定度分数分布。

值得注意的是,INTUITOR 模型对正确答案的 self-certainty 显著更高,而 GRPO 虽提升了模型自评能力,但区分度明显低于 INTUITOR。

由于受计算资源限制,实验只在相对较小的无监督语料库上进行训练,未来可在更大规模的基础模型和更多样化的真实世界数据集上进一步研究 INTUITOR 的优势。

团队介绍

本项研究来自 UC Berkeley 的 Sergey Levine、宋晓东团队,作者一共有五位,分别是第一作者博士后研究员 Xuandong Zhao、共同一作本科生 Zhewei Kang、来自耶鲁大学的 Aosong Feng,以及 Sergey Levine 和 Dawn Song。

2019 年,Xuandong Zhao 从浙江大学毕业后,就进入了加州大学圣塔芭芭拉分校攻读计算机科学博士学位,期间还曾在阿里巴巴、Microsoft 和 Google 等公司实习。

自 2024 年他进入 UC Berkeley 后,除本次的新成果外,至今一共还发表过十多篇论文,并先后被 ICLR 2025、ICML 2025 等接收。

另外在今年 2 月,Xuandong Zhao 和 Zhewei Kang 还合作发表了一篇论文,描述了基于自我确定性的 LLMs 推理能力提升新策略 Best-of-N,可以看作是本篇论文的一次先验尝试。

论文链接:https://arxiv.org/abs/2505.19590

代码链接:https://github.com/sunblaze-ucb/Intuitor

参考链接:

[ 1 ] https://x.com/joshclemm/status/1927400772817285264

[ 2 ] https://x.com/xuandongzhao/status/1927270931874910259   [ 3 ] https://x.com/xuandongzhao/status/192778163679341780

[ 4 ] https://arxiv.org/abs/2502.18581

—  完  —

 量子位 AI 主题策划正在征集中!欢迎参与专题365 行 AI 落地方案,一千零一个 AI 应用,或与我们分享你在寻找的 AI 产品,或发现的AI 新动向。

也欢迎你加入量子位每日 AI 交流群,一起来畅聊 AI 吧~

一键关注 点亮星标

科技前沿进展每日见

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

m