国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

大模型強化學習新突破——SPO新范式助力大模型推理能力提升!

人工智能 新聞
來自中科院軟件所和香港城市大學的的研究團隊創新性提出了 Segment Policy Optimization (SPO) 框架。

當前,強化學習(RL)在提升大語言模型(LLM)推理能力方面展現出巨大潛力。DeepSeek R1、Kimi K1.5 和 Qwen 3 等模型充分證明了 RL 在增強 LLM 復雜推理能力方面的有效性。

然而,要實現有效的強化學習,需要解決一個根本性的挑戰,即信用分配問題(credit assignment):在大語言模型的場景下,如何將整個序列(LLM 的回復)最終的評估結果,歸因到序列中具體的決策動作(token)上。

這一問題的困難在于獎勵信號非常稀疏 — 只能在序列結束時才能獲得明確的成功或失敗反饋。

當前主要方法

在強化學習中,通常采用優勢值估計(advantage estimation)的方法來解決信用分配問題。目前針對大語言模型的強化學習方法主要分為兩類,它們之間的區別在于優勢值估計的粒度不同。

粗粒度的軌跡級 (trajectory-level) 方法,如 DeepSeek R1 使用的 GRPO,只根據最終的獎勵為整個序列計算一個優勢值。這種方法雖然高效但反饋信號過于粗糙,LLM 無法對錯誤回答中正確的部分進行獎勵,也無法對正確回答中冗余的部分進行懲罰。

另一種極端是細粒度的 token 級(token-level)方法,如經典的 PPO。這類方法為每個 token 估計優勢值,需要依賴額外的 critic 模型來預測每個 token 的狀態價值(V 值)。然而,在大語言模型的強化學習任務中,不同 prompt 對應的軌跡分布差異很大,而且在訓練過程中每個 prompt 采樣出來的模型回復數量非常有限,critic 模型難以訓練好,造成 token 級的優勢值估計誤差很大。

新的 SPO 框架

為突破這一瓶頸,來自中科院軟件所和香港城市大學的的研究團隊創新性提出了 Segment Policy Optimization (SPO) 框架。

圖片

  • 論文題目:Segment Policy Optimization: Effective Segment-Level Credit Assignment in RL for Large Language Models
  • 作者:Yiran Guo, Lijie Xu, Jie Liu, Dan Ye, Shuang Qiu
  • 鏈接:https://arxiv.org/abs/2505.23564
  • 代碼鏈接:https://github.com/AIFrameResearch/SPO 

SPO 使用了一種中等粒度的段級(segment-level)優勢值估計方式。它不像軌跡級方法只在最后一步計算優勢,也不像 token 級方法每步都計算優勢,而是將生成的序列劃分為若干相連的段,計算每個段的優勢值。

這種段級的優勢值估計方式具有幾個明顯的優勢:

(1) 更優的信用分配:相比軌跡級方法,段級方法能夠提供更局部化的優勢反饋,讓模型能夠獎勵錯誤回答中仍然有價值的部分,同時也能懲罰正確回答中冗余和無效的片段。

(2) 更準確的優勢值估計:相比 token 級方法,段級方法所需的估計點數量更少,從而能夠有效利用蒙特卡洛(Monte Carlo, MC)采樣得到更加準確且無偏的優勢值估計,而無需再依賴額外且不穩定的 critic 模型。

(3) 更靈活、更易調整:段級的劃分方式可以任意定義,并不要求語義上的完整性,因此可以靈活地在 token 級與軌跡級之間自由調整粒度,并且可以適應不同的任務和應用場景。

SPO 框架主要包含三個核心部分:(1) 靈活的段級劃分策略;(2) 基于蒙特卡洛采樣的段級優勢值估計;(3) 利用段級優勢值進行策略優化。

這種模塊化的設計使框架具備高度的靈活性,不同的部分可以有不同的實現策略,以適用不同的應用場景。

該團隊進一步針對不同的推理場景提出 SPO 框架的兩個具體實例:對于短的思維鏈(chain-of-thought, CoT)場景,提出了 SPO-chain,該方法使用基于切分點(cutpoint-based)的段劃分和鏈式優勢值估計;對于長 CoT 場景,提出極大提升 MC 采樣效率的樹形結構優勢值估計方法。

此外,該團隊還提出了一種 token 概率掩碼(token probability-mask)策略優化方法,選擇性的對段內的低概率 token 計算損失而非段內的所有 token。作者認為這些 token 是模型推理軌跡可能發生分叉的地方,是段級優勢值產生的主要原因。這種方法可以用于 SPO-chain 和 SPO-tree,從而進一步強化信用分配。

框架及核心技術

SPO 框架主要圍繞以下三個具有挑戰性的問題進行設計:(1) 如何將生成的序列劃分為多個段?(2) 如何準確且高效地估計每個段對應的優勢值?(3) 如何利用段級優勢值來更新策略?SPO 的三個核心模塊分別解答上面三個問題,每個模塊包含多種可選策略,來適用于不同的場景: 

圖片

1. 段劃分 (Segment Partition):

a) 基于切分點的段劃分 (Cutpoint-based Partition): 為短思維鏈場景設計,將段劃分點放置在狀態值(V 值)更有可能發生變化的地方。根據 token 概率動態確定段邊界,優先在模型 “猶豫” 或可能改變推理路徑的關鍵點(cutpoints)進行劃分,使信用分配更精確。比如,在下圖例子中,標記為紅色的 token 是關鍵點,而標記為藍色的豎杠是分段結果。

圖片

b) 固定 token 數量段劃分 (Fixed Token Count Partition): 將序列劃分為固定長度的段,便于樹形結構的組織和優勢值估計,為 SPO-tree 設計。

2. 段級優勢值估計(Segment Advantage Estimation):

圖片

a) 鏈式優勢值估計 (Chain-based) 方法:在短思維鏈場景下,MC 采樣的成本不高,該團隊采用一種直接的段級優勢值估計方式,獨立估計每個段邊界的狀態值(V 值),然后計算段級優勢值。以下公式展示了鏈式優勢值的估計方法。

圖片

圖片

b) 樹形優勢值估計 (Tree-based): 在長思維鏈場景下,MC 估計的代價很高,團隊提出了一種高效的樹形估計方法:將采樣軌跡組織成樹形結構,通過自底向上的獎勵聚合計算狀態價值(V 值),同一個父節點的子節點形成一個組,在組內計算每個段的優勢值。這種方式將用于 V 值估計的樣本同時用于策略優化,極大提高了樣本效率。以下公式展示了樹形優勢值估計方法。

圖片

3. 基于段級優勢值 token 概率掩碼策略優化(Policy Optimization Using Segment Advantages with Token Probability-mask):

在得到段級優勢值以后,為了進一步提高信用分配,團隊創新性地提出 token 概率掩碼策略優化方法,在策略更新僅將段級優勢值分配給該段內的低概率(關鍵)token,而非所有 token。這種方法能更精確地將獎勵 / 懲罰賦予關鍵的決策點,提升學習效率和效果。下面分別展示了 SPO-chain 和 SPO-tree 的優化目標。

a) SPO-chain 優化目標:

圖片

圖片

b) SPO-tree 優化目標:

圖片

圖片

對比基線方法

如下圖所示,在短思維鏈場景,使用 RhoMath1.1B 作為基座模型,使用 GSM8K 訓練集進行訓練,對比各種訓練算法,使用 SPO 訓練得到的模型測試集正確率更高。

圖片

對于長思維鏈場景,如下圖所示,使用 DeepSeek-R1-Distill-Qwen-1.5B 作為基座模型,使用 MATH 數據集進行訓練,在相同的訓練時間下,測試集正確率比 GRPO 更高。

圖片

下表展示了在長思維鏈場景下的更多對比結果:與同期基于相同基座模型(DeepSeek-R1-Distill-Qwen-1.5B)并使用 GRPO 方法訓練得到的模型(DeepScaleR、STILL-3)相比,盡管 SPO 僅使用 MATH 數據集且僅使用 4K 的最大上下文長度進行訓練,SPO-tree 在各個上下文長度評測下表現優秀。值得注意的是,盡管 DeepScaleR 在 32K 上下文長度評測下表現最佳,但它在較短上下文長度(2K 與 4K)下卻表現最差,甚至不及原始基座模型。這表明,GRPO 訓練方法可能未有效優化模型的 token 效率,導致輸出存在較多冗余,從而在上下文長度有限的情形下出現正確率下降的問題。

圖片

分段粒度的影響

圖片

通過實驗發現,很細的粒度 (int2,每個兩個切分點進行分段),相比于中等粒度 (int5),僅有微小提升,但是過粗的粒度 (int100),相比于中等粒度 (int5),正確率下降很大。證明了 SPO 采用中等粒度優勢值的有效性。

段劃分方式的影響

圖片

實驗表明,在短思維鏈場景下,采用提出的基于切分點的段劃分方式效果最好,優于采用換行符進行劃分(VinePPO)以及固定 token 數量劃分(Fixed-token-count)。

Token 概率掩碼消融

圖片

實驗表明,將 token 概率掩碼去除會導致 SPO-chain 正確率下降,更值得注意的是:將 token 概率掩碼應用到 GRPO 上,會讓其正確率有明顯上升。

不同樹結構的影響

圖片

實驗表明,更小的樹結構在早期正確率更高,可能因為更快掃過更多的數據樣本。然而隨著訓練的進行,更大的樹結構會有更好的正確率,因為更大的樹結構對于段級優勢值的估計更加準確。

總結

該工作提出了一種基于中間粒度段級優勢值的 RL 訓練框架 SPO,在 token 級和軌跡級之間更好的平衡,具有比軌跡級更好的信用分配,同時僅需要少量優勢值估計點,可以使用有效無偏的 MC 方式進行估計,不需要額外的 critic 模型。

文章同時提出了 SPO 的兩個實例,為短思維鏈場景設計的 SPO-chain 以及為長思維鏈場景設計的 SPO-tree,通過實驗證明了 SPO 框架和兩個實例的有效性。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2025-06-26 09:06:59

2025-10-21 09:06:00

2025-12-01 01:23:00

2025-08-07 09:16:41

2025-02-20 09:21:51

2025-10-11 09:23:28

RLPT強化學習預訓練數據

2025-05-26 09:16:00

2025-10-23 14:05:35

2025-04-30 16:48:07

2024-09-13 06:32:25

2025-06-26 09:13:22

2025-06-27 10:10:43

AI模型技術

2025-05-29 03:00:00

混合推理模型LHRMAI

2025-05-30 04:00:00

IBMRLVRGRPO

2022-11-03 14:13:52

強化學習方法

2023-08-28 06:52:29

2025-11-04 01:43:00

循環語言模型架構

2025-08-08 09:02:00

AI架構模型

2023-06-09 07:29:03

模型文本document

2025-04-01 15:35:11

點贊
收藏

51CTO技術棧公眾號

中文字幕精品视频| 黄视频在线播放| 国产精品va无码一区二区| 情趣视频网站在线免费观看| 精品久久久网| 欧美私人免费视频| 精品一区二区三区视频日产| 亚洲精华液一区二区三区| 国产乱码一区二区三区| 国产精品中文字幕在线观看| 日本韩国一区二区三区| 国产精品视频区1| 国产人成在线视频| 日本亚洲三级在线| 国产视频亚洲精品| 亚洲天堂2018av| 夜夜躁狠狠躁日日躁2021日韩| 亚洲色在线视频| 一本久久a久久精品vr综合| 亚洲日本va中文字幕| 岛国av一区二区在线在线观看| 国产精品中文字幕久久久| 在线观看爽视频| 91性感美女视频| 香蕉久久夜色| 热99精品只有里视频精品| 日韩精品毛片| 久久久精品国产免费观看同学| 无线免费在线视频| 91精品综合久久久久久| 国产精品欧美一区二区| 久久一级大片| 午夜美女久久久久爽久久| 制服黑丝国产在线| 91天堂素人约啪| 综合久久国产| 欧美日韩hd| 99视频在线播放| 国产亚洲精品美女久久久久久久久久| 国产婷婷97碰碰久久人人蜜臀 | 3d蒂法精品啪啪一区二区免费| 女人高潮被爽到呻吟在线观看| 日本韩国欧美一区二区三区| 全部a∨一极品视觉盛宴| 第四色婷婷基地| ccyy激情综合| 欧美性色综合网| 91香蕉视频导航| 中文字幕日韩欧美一区二区三区| 毛片毛片毛片毛片毛片毛片| 国产三级欧美三级日产三级99| 国产精品永久入口久久久| 亚洲精品护士| 免费无码不卡视频在线观看| 亚洲伊人网站| 日本视频一区二区在线观看| 91九色对白| 四虎影视国产精品| 欧美老人xxxx18| 中文字幕乱在线伦视频乱在线伦视频| 国产传媒在线播放| 在线观看欧美日韩| 日韩欧美一区二区三区免费观看| 精品国内片67194| 四虎精品一区二区永久在线观看| 懂色一区二区三区av片 | 国产精品777777在线播放| 自拍视频国产精品| 亚洲人成免费网站| 日本免费久久高清视频| 久久99精品久久久久久| 无码人妻精品一区二区蜜桃网站| 国产精品三级久久久久三级| 高潮一区二区| 欧美亚洲激情视频| 捆绑调教美女网站视频一区| 波多野结衣之无限发射| 91精品国产综合久久久久久久久久| 麻豆乱码国产一区二区三区| 异国色恋浪漫潭| ww久久中文字幕| 国产三级在线观看| 97在线观看视频国产| 国产精品一二| 中文字幕有码av| 欧美xxx久久| 你懂的一区二区三区| 青青成人在线| 亚洲不卡av一区二区三区| bt在线麻豆视频| 久久成人人人人精品欧| 大香伊人中文字幕精品| 精品卡一卡二卡三卡四在线| 精品免费日韩av| 日韩av中文字幕在线播放| 亚洲国产一区二区在线播放| 精品国产网站在线观看| 成人一区二区三| 欧美极品xxx| 求av网址在线观看| 日韩在线观看免费全| 色综合色综合久久综合频道88| 韩国v欧美v日本v亚洲| 欧美午夜美女看片| 欧美.www| 日韩精品一二三四| 丰满白嫩尤物一区二区| 亚洲欧美视频在线观看视频| 男人天堂视频在线观看| 51国产成人精品午夜福中文下载 | 91传媒视频在线观看| 国产91综合一区在线观看| 91成人高清| 国产精品十八以下禁看| 中文字幕av在线一区二区三区| 国产亚洲一区二区手机在线观看 | 在线国产精品播放| 久久精品av麻豆的观看方式| 黄网站app在线观看| 91精品国产91久久久久青草| 亚洲精品高清在线观看| 国内露脸中年夫妇交换精品| 丰满少妇在线观看| 色综合男人天堂| 国产精品热久久久久夜色精品三区| 国产精品久久久久久久久久久久久久久| 伊人再见免费在线观看高清版| 日韩激情av在线播放| 日韩电影在线免费| 筱崎爱全乳无删减在线观看| 91网站在线观看免费| 日韩在线小视频| 国产拍揄自揄精品视频麻豆| 红杏aⅴ成人免费视频| 免费女人黄页| 国产精品一区二区三区毛片淫片 | 伊人影院久久| 香蕉视频国产在线观看| 欧美精品一区二区三区久久| 日韩你懂的在线观看| 蜜臀久久久99精品久久久久久| 黄色成人在线网| 欧美亚洲黄色片| 午夜精品久久久久久99热软件| 一区二区三区中文在线观看| 欧美a级片网站| 爱看av在线| 狠狠操精品视频| 国产精品尤物福利片在线观看| 精品久久久免费| 99国产精品| 爱情电影社保片一区| 虎白女粉嫩尤物福利视频| 国产成人精品在线播放| 欧美三级韩国三级日本三斤 | 亚洲欧洲制服丝袜| 99国内精品久久久久久久| 免费高清完整在线观看| 亚洲一区三区视频在线观看| 日韩一区二区欧美| 一区二区三区不卡视频在线观看| 久久久久久久久国产一区| 尤物视频在线看| 国产91xxx| 成人激情在线观看| 精品国产伦一区二区三区观看体验 | 亚洲欧美三级在线| 国产精品久久久爽爽爽麻豆色哟哟 | 亚洲国产另类 国产精品国产免费| 成人精品国产免费网站| 久久影院资源站| 欧美三级黄网| 丰满人妻中伦妇伦精品app | 久久精品色欧美aⅴ一区二区| 亚洲精品视频在线| 日韩精品电影在线观看| 91精品久久久久久综合五月天| 在线看片你懂得| 91免费视频黄| 日韩免费在线视频| 日韩av在线网页| 一区二区三区精品在线观看| 激情图片小说一区| 欧美电影三区| 欧美一区=区三区| 韩国免费在线视频| 人妻有码中文字幕| 欧美成熟毛茸茸复古| 97国产在线观看| 精品国产一区二区三区av性色| 亚洲天堂网中文字| 久久狠狠亚洲综合| 婷婷成人基地| 日本精品视频| a国产在线视频| 国产中文字幕在线看| 小泽玛利亚视频在线观看| 清纯唯美一区二区三区| 国产精品精品久久久久久| 中文字幕在线看视频国产欧美|