谷歌的持續重整化方案:Titans + MIRAS
持續重整化
范疇論、GRPO與CoT三位一體中筆者完善了大模型數理認知框架如下:
圖片
一句話總結就是:重整化提取出范疇,持續重整化驅動范疇相變,然后逆重整化推理。
這里的持續重整化,還局限在預訓練階段,語料分批分期的進入預訓練做重整化,隨后更新相應的內部世界模型,即米田嵌入構成的范疇,解構重組結晶。
隨著預訓練的邊際效益遞減,測試時計算的進展,如DeepSeek R1 & R2 技術原理所說,測試推理時微調模型參數,極大推動了模型在推理上下文中持續學習的能力。
筆者曾思考過,這個測試時計算與預訓練的持續重整化過程本質看起來是一回事,僅僅是所處的階段人為的做了區分。
Titans+Miras
谷歌最近對 Transformer 架構的改進或者說增強,Titans【文獻1】+ MIRAS【文獻2】,把這個思路變成現實。
谷歌從為大模型提供記憶機制入手【文獻3】,Titans是具體的架構,可看作工具,而MIRAS則是理論框架或藍圖,共同推進測試/推理時記憶。
Pasted Graphic.png
Pasted Graphic 1.png
Pasted Graphic 2.png
筆者看來,大模型記憶的本質是參數的存儲與更新機制。Titans架構是測試時或者說推理時記憶/忘記的機制,
通過引入意外性指標(Surprise Metric),衡量模型運行中遇到的非預期信息片段有多新奇,從而確定哪些該記憶,哪些該忘記,無需專門離線重訓練。
Titans本身就是一個神經網絡,其參數作為記憶存儲庫,同時記憶也作為上下文,與模型當前所處的上下文構成完整上下文,并協助模型做記憶取舍和并行提效。
不過,Titans僅僅是MIRAS框架的一個具體實現。MIRAS則提供了一個強大包容的通用框架,用來實現關聯記憶(Associative Memory)。
Pasted Graphic 4.png
框架基于四個關鍵設計選擇:
1)記憶架構:存儲信息的結構,向量、矩陣,或類似Titans模型中使用的深層多層感知器;
2)注意力偏好:模型優化的內部學習目標,決定其學習的優先級與效果;
3)記憶保留門:記憶正則化器,將遺忘機制重新詮釋為特定形式的正則化,用于平衡新知識學習與舊知識保留;
4)記憶算法:用于更新記憶的優化算法。

筆者覺得這里注意力偏好是關鍵中的關鍵,選擇工程實用的Huber、衡量信息損失的KL散度,還是其泛化形式Bregman散度會導致巨大差異。
筆者一向推崇最優輸運和信息幾何視角的Wasserstein距離,根源于如下這個世界觀沿最優輸運方向的重整化可能是世界演化的核心方式。
測試時記憶
持續重整化,Titans聰明之處是通過Surprise Metric判斷新奇程度,決定是否更新為內部長期記憶,或者選擇權值衰減而遺忘。
MIRAS的獨特性和實用性源于其看待大模型建模的視角:如何高效融合新信息與既有記憶,同時確保關鍵概念不丟失。
整體上看,Miras + Titans 提供了預訓練靜態大模型變成可以持續學習的動態大模型的機制。
持續重整化就是這個機制的核心,Titans + MIRAS是一種高效靈活的實現方案。

筆者在大模型數理認知框架的數學表述中更新了文字解讀,并推廣到圖像視頻生成模型從 Sora 2 到 Schr?dinger 薛定諤橋:視頻生成模型的下一次飛躍。
這個認知框架可以非常有效的解讀大模型預訓練與推理的各種行為現象、幻覺等能力局限,以及技術發展的方向,
甚至輔助意識理論普林斯頓:意識的注意力模式理論 (Attention Schema Theory:AST),與解讀自指谷歌套娃學習:時間維度上的重整化。
如今還在 Titans+Miras 框架下,完善成為覆蓋預訓練和推理時記憶、與持續學習的數理認知框架。
文獻1,“Titans: Learning to Memorize at Test Time”,https://arxiv.org/pdf/2501.00663,
文獻2,“It’s All Connected: A Journey Through Test-Time Memorization, Attentional Bias, Retention, and Online Optimization”,https://arxiv.org/pdf/2504.13173,
文獻3,https://research.google/blog/titans-miras-helping-ai-have-long-term-memory/
本文轉載自???清熙???,作者:王慶法

















