大语言模型(LLM)真的会推理吗?业内对此争论不休。
这是因为,当前的LLM在面对复杂代码、多步逻辑和抽象任务时依然经常“翻车”,表现出逻辑跳跃、步骤混乱、答非所问等诸多问题。
靠人教?太慢。靠奖励?信号太弱。靠验证?数据太贵。如何兼顾推理能力、训练效率与通用性,已成为业内难题。
针对这些难题,清华大学计算机科学与技术系知识工程研究室(KEG)团队提出了一种统一的LLM强化学习(RL)新范式——ReST-RL。该方法通过将改进的GRPO算法与精心设计的由价值模型(VM)辅助的测试时解码方法相结合,在提升LLM推理能力的同时,也兼顾了效率、稳定性与可拓展性。
实验结果显示,在APPS、BigCodeBench和HumanEval等不同级别的知名编程基准上,ReST-RL的性能优于其他强化训练基线(如原始GRPO和ReST-DPO),以及解码和验证基线(如PRM-BoN和ORM-MCTS)。
这表明,ReST-RL在增强LLM策略的推理能力方面潜力巨大,且为LLM的强化学习路径提供了新思路。
越来越多的研究表明,RL能够提升LLM的推理能力,这一方向也成为当前的研究热点。
其中一些方法采用在线RL,即数据采样与模型更新同步进行,代表性方法为群体相对策略优化(GRPO);其它方法则主张通过离线采样与筛选机制获取训练数据,这一范式通常被称为自训练,其代表方法是强化自训练(ReST)。尽管训练机制不同,这两类方法均能有效提升LLM的推理能力。
奖励模型(RMs)因其在输出验证中的重要作用,正受到越来越多的关注。已有研究表明,对LLM最终输出进行验证的结果奖励模型(ORM)可以提升推理准确性。多种过程奖励模型(PRMs)也被用于为中间步骤提供反馈,其验证效果优于ORM。
然而,这些方法仍存在不足。一方面,以GRPO为代表的在线RL算法,常因奖励信号差异微弱而导致训练效果不理想。尽管部分研究尝试通过设计逐步奖励或引入简单的动态采样机制缓解该问题,但这往往带来更高的计算成本与较差的泛化能力,也使RL算法更为复杂。另一方面,尽管PRMs在验证输出方面优于ORMs,但其训练过程通常依赖高质量的标注数据。由于数据标注成本较高,PRM的训练数据难以扩展,从而限制了其准确性与可靠性。
有研究提出通过蒙特卡洛模拟(MonteCarlosimulations)估计并收集过程奖励。但是,这些方法难以推广至更复杂的推理任务,其对结果匹配机制的依赖也限制了适用范围。
总体来看,现有方法难以在数据采集成本、泛化能力、强化效果与训练效率之间实现全面平衡。
ReST-RL为解决训练奖励差异和PRM准确性问题,提供了新的可能。该方法由两个主要部分组成,分别是ReST-GRPO(基于群体相对策略优化的强化自训练方法)和VM-MCTS(基于价值模型的蒙特卡洛树搜索)。
ReST-GRPO采用优化后的ReST算法执行GRPO,从而提升策略在复杂推理任务中的能力。该方法利用策略本身对训练数据进行筛选与组合,有效缓解了GRPO奖励失效的问题,增强了策略生成可靠推理轨迹的能力。
LLM的输出解答及其对应的奖励中蕴含着丰富信息,反映其在目标任务域中的优势与短板,这些信息可用于过滤掉无效的训练数据。
研究团队采用标准差评估奖励的多样性。对于其所有解答的奖励标准差低于预设阈值σ₀的提示语,将其从训练集中剔除。训练过程聚焦于那些高奖励的解答轨迹,并最终利用其部分解状态构建新的训练数据。
与普通GRPO相比,ReST-GRPO能够显著提升训练过程中的奖励方差。
VM-MCTS则用于LLM测试阶段解码。其中,价值模型(VM)的作用类似于PRM,不仅提供验证信号,还能引导LLM策略探索更有潜力的推理路径。VM的价值目标用于评估包含最后一步在内的整个部分状态,而非单一动作或步骤。它自然地反映了策略从当前局部状态到达高奖励终态zan的潜力,可在解码过程中为策略提供辅助。
在为VM收集训练数据时,他们采用MCTS方法,以在探索不同推理路径和利用高潜力中间状态之间取得平衡。一旦收集到足够的价值目标数据,即可训练VM去预测各类状态的价值。
使用该方法训练得到的VM能够准确预测当前策略下部分状态的预期奖励。该算法通过价值估计来决定应当探索和解码哪些路径,从而提高搜索的效率与准确性。
研究团队通过大量编码问题实验,验证了所提出RL范式及其各组成部分的有效性,证明ReST-RL不仅能够增强LLM策略的推理能力,同时在效率、成本和泛化性等方面实现了较好的平衡。
结果表明,ReST-RL及其组件在性能上全面优于其他强化学习基线方法(如原始GRPO和ReST-DPO),以及解码与验证基线方法(如PRM-BoN和ORM-MCTS)。
在相同训练步数下进行测试对比表明,ReST-GRPO相较于原始GRPO和DAPO拥有更高的训练效率。
在解码验证预算相同的条件下,VM-MCTS及其VM在准确性方面,优于此前基于公开数据训练的Math-Shepherd风格PRM或ORM。
尽管各项实验证明了ReST-RL的有效性,但该方法仍存在一定的局限性。
例如,研究尚未在代码推理以外的任务(如数学推理和常识推理)中对其进行验证。虽然该方法框架并不局限于代码任务,但在其他场景下的应用可能需要重新设计合适的奖励机制和实验超参数。
另外,部分实验设置对最终结果的具体影响也尚未得到系统性分析。
研究团队还表示,价值模型在域外任务中的准确性仍缺乏充分研究,后续工作将进一步探索ReST-RL在更广泛任务中的泛化能力。
整理:小羊