登陸nature!大腦處理語言的時間結構與LLM驚人相似
一個有趣的問題:當你聽到"昨天下雨了"這句話時,你的大腦在0.2秒內做了什么?而當GPT處理同樣這句話時,它的"思考"過程是否和你相似?
Nature上的一項新研究給出了讓人意外的答案:相似得可怕。
圖1:層級編碼模型示意圖
研究人員讓志愿者戴上腦電帽,聽30分鐘的故事。同時,他們把同樣的故事喂給GPT-2 XL和Llama-2,記錄下AI每一層的"思考"過程。結果發現了一個精妙的時間對應關系。
傳統語言學認為大腦處理語言靠的是符號和規則,就像查字典一樣。但LLM用的是完全不同的方法:把詞語變成數字向量,然后通過一層層復雜的數學變換來"理解"語言。這聽起來很抽象,但大腦似乎也在做類似的事。
最有趣的發現出現在布洛卡區,這是大腦的語言中樞。當一個詞剛出現時,LLM的淺層網絡活躍,對應大腦的早期反應;隨著時間推移,LLM的深層網絡開始工作,大腦的后續處理也同步進行。
圖2:IFG區域正確預測詞的層級編碼時間動態
實驗設計很巧妙。研究人員為每個腦電極、每個AI層級、每個時間點都訓練了獨立的預測模型。這些模型試圖用AI的"思考"狀態來預測大腦的電信號。通過十折交叉驗證,他們發現在額下回區域,AI層級的深度和大腦反應的時間延遲有顯著相關性。
更神奇的是,這種對應關系只在AI"猜對"下一個詞時才明顯。當GPT-2能準確預測接下來會出現什么詞時,它的內部表示和人腦活動幾乎同步。猜錯了?對應關系就消失了。
圖3:腹側語言流沿線的層級時間結構
研究還揭示了大腦處理語言的"流水線"過程。從顳上回到顳極,再到前顳上回和額下回,各個腦區像接力賽一樣處理語言信息,處理時間窗口越來越長,復雜度越來越高。這和LLM的層級結構幾乎一模一樣。
曾有人說過,Transformer架構本身就是在模擬神經脈沖的傳遞模式。這項研究算是給了這個觀點實錘。研究團隊還公開了數據集,給后續研究提供了基準。
這個發現顛覆了我們的一些認知。也許LLM不只是在處理文字,而是真的在某種程度上復現了人腦的語言理解過程。這不僅幫我們理解大腦怎么工作,也為開發更像人類的AI提供了新思路。
看來AI和人腦的相似性,比我們想象的要深得多。
原文:??https://www.nature.com/articles/s41467-025-65518-0??
本文轉載自???AI工程化???,作者:ully

















