LeCun賭上后半生,押注大模型必死!Hassabis誓將Scaling進行到底
剛剛,圖靈獎得主與諾獎得主吵起來了!
大約一周前,圖靈獎得主、「深度學習之父」Yann LeCun在一期播客中「宣告」了大模型的「死刑」,直接把當下最主流的AI路線罵成了「胡扯」。

Yann LeCun在《The Information Bottleneck》播客中表示,大模型通往AGI的道路完全行不通
在播客中,他沒有委婉質疑,也沒有持保留意見,而是毫不留情地全盤否定:
所謂通往超級智能的路線,無非就是繼續堆大語言模型、用更多合成數據去喂模型、再雇成千上萬的人在后訓練階段手把手地「教」系統,順便在強化學習(RL)上搞點小修小補;在我看來,這完全是胡扯。這條路根本不可能走得通。
作為深度學習的奠基者之一,LeCun推翻了幾乎是當下整個AI產業一致下注的方向。
這等于說,你們都別干了,前面死路一條。
作為當前大模型路線的重要領軍者,DeepMind創始人Hassabis立刻站出來反駁LeCun的觀點。
他認為LeCun混淆了「通用智能」(General Intelligence)與「普適智能」(Uniwersal Intelligence)的概念,忽略了一個核心事實——人類大腦本身就是高度通用的系統,盡管它在具體任務上并非最優。


馬斯克轉帖并站隊Hassabis,認為他說得完全正確。
Hassabis的反駁將問題從「大模型行不行」引向了一個更根本的問題:
我們到底在討論什么樣的智能?
LeCun在Hassabis的反駁帖子下面留言,認為二者的分歧主要在于用詞。

他還用數學、計算復雜性來證明自己的觀點:
人類大腦本身其實是高度特化(專門化)的系統,因此不能用「通用」來指代「人類水平」。
更讓這場辯論富有戲劇性的,是LeCun即將離開Meta,創辦AMI Labs,押注一種完全不同于大模型的路線。
而辯論另一方Hassabis,他所領導的DeepMind正在大模型通往AGI的道路上加速前進。
所以,這不只是觀點之爭,也是關系到未來十年AI技術路線的一場豪賭。
LeCun
大模型并不能實現AGI
在LeCun看來,當前硅谷主流的通往超級智能的路線,在理論和實踐上都站不住腳。
他認為這條路線,本質上是在用「規模」掩蓋「結構上的問題」。
通過把模型堆得更大,用更多數據喂它,然后再用人工后訓練一點點糾偏。
短期內這的確會讓模型更強,但這并不意味著你正在逼近真正的通用智能。
此外,他還反對用「通用」這個詞去指代「人類智能」。
他認為人類本身其實是高度、甚至極端專門化的。
一個訓練充分、擁有無限紙筆的人類大腦,在理論上是「圖靈完備」的。
但在現實中,我們幾乎在所有計算問題(比如下棋)上的效率都低得驚人。
一個幾十歐元的棋類引擎,就能穩定擊敗世界頂級棋手。
這不是因為人類不聰明,而是因為在資源受限的情況下,我們的計算方式本身就高度次優。
LeCun還提出了一個非常「工程師」的比喻。
在理論上,一個只有兩層的神經網絡,可以把任何函數逼近到任意精度。
但在現實中,真正有意義的函數,往往需要多到不可接受的隱藏單元。
所以我們才需要采用多層網絡,這正是深度學習存在的根本原因。
接著,他又舉了另一個例證。
假設視覺系統有大約100萬根神經纖維。
哪怕我們極端簡化,把信號當作二進制,一個視覺任務也相當于:從100萬比特映射到1比特的布爾函數。
這類函數的總數是多少?
2^(2^1000000)。
這是一個幾乎無法書寫、無法想象的數字。
而人類大腦呢?
假設有1011個神經元、101?個突觸,每個突觸用32比特表示,整個連接組最多也只有3.2×101?比特。
這意味著,人類大腦整體能表示的布爾函數總數,上限不過是: 2^(3.2×101?)。
這和2^(2^1000000) 相比,這個數字幾乎可以忽略不計。
當然,LeCun的推斷只是一個信息論意義上的上界估算,而非嚴格的神經可計算性證明。
但他由此得出的結論也很殘酷。
他認為我們不僅談不上「通用」,而且在可能函數空間里,是極端地、荒謬地專門化的存在。
我們之所以感覺不到,是因為絕大多數函數,對我們來說復雜到完全像隨機噪聲。
于是,我們把它們叫作「熵」,然后選擇忽略。
正因如此,LeCun非常欣賞愛因斯坦那句著名的話:「世界上最不可理解的事情,就是世界居然是可以被理解的」。
他認為宇宙中絕大多數的信息內容都是熵,是那些我們用自己貧弱的心智根本無法理解,所以只能選擇忽略的東西。
Hassabis反擊
你打錯了靶心
Hassabis并沒有直接否定LeCun的數學推斷,只是說他打錯了靶心——混淆了「通用智能」與「普適智能」的概念。
LeCun所否定的只是「普適智能」,即在所有任務上,都達到接近最優的性能。
而「通用智能」則是另外一件事,它是指同一個系統,能否在完全不同的任務之間遷移、學習、適應。
從這個角度看,圖靈機是一個很好的理論假設。
Hassabis認為大腦是目前在宇宙中所知道的最精妙、也最復雜的現象(至少到現在為止),而且它們本身就是高度通用的。
受到無免費午餐定理(No Free Lunch Theorem)的限制,任何現實、有限的系統中,都會不可避免地圍繞正在學習的目標分布產生一定程度的專門化。
但「通用性」的核心在于:
從理論上講,一個通用系統的架構,只要給它足夠的時間、內存(以及數據),就可以學習任何可計算的東西。
在人們常用的計算理論類比中,人類大腦常被視為近似圖靈完備的系統,Hassabis認為人腦和基于Transformer的基礎模型,同樣都是近似圖靈機的系統。

Hassabis也回應了LeCun關于棋手的評論。
他認為人類能夠發明出國際象棋本身就是一個奇跡,何況我們還能在此基礎上達到像國際象棋棋手之一Magnus Carlsen那樣的頂尖水平。
更不用說現代文明的其他一切:如從科學發現到制造747客機等。
Hassabis表示人腦或許并不是嚴格意義上的最優解(畢竟記憶有限、決策時間也有限),但考慮到人類大腦原本只是為狩獵采集而進化的,它所取得的上述成就堪稱不可思議。


因此,Hassabis認為人腦本就是一個宇宙級的「通用AI」,具備無限學習潛能,而人類文明創造力,則是大腦高度通用性的最強證明。

五年后
答案或將浮出水面
真正讓這場爭論變得引人注目的,是LeCun與Hassabis二人在AI界的巨大影響力,以及他們背后所代表的截然不同的技術路線。

LeCun宣布即將離開Meta后,就馬不停蹄地為「下一場戰役」做準備。
與此同時,他也選擇要遠離硅谷的一切。
在他看來,硅谷正被「LLM」洗腦的單一文化,從Meta到OpenAI、谷歌、Anthropic,基本上所有人都在做同樣的事情。
因此,在斷定大模型此路不通后,LeCun決定創辦自己的研究型初創公司AMI Labs,專注于構建「世界模型」。
目前AMI Labs正在以35億美元估值融資5億歐元。
這也意味著LeCun把自己整個后Meta的職業生涯都押注在了與硅谷主流AI路線截然不同的一個方向判斷上:
大模型不是通往通用智能的正確路徑。
與LeCun的選擇和判斷相對應的,是Hassabis帶領的DeepMind實現了AlphaGo、AlphaFold、Gemini……等一系列歷史性的突破。
他還因為AlphaFold在蛋白質結構預測領域的革命性貢獻,與John Jumper、David Baker共同獲得了2024年諾貝爾化學獎。
這些技術突破,在不同任務上采用了不同但可遷移的學習范式,正在一步步探索通往AGI的可能性。
前不久,Hassabis還斷言「擴規模」是通往通用人工智能(AGI)的關鍵組件,甚至可能就是全部路徑。
他認為要實現AGI,當下主流大模型必須把「擴規模」(更多數據、更多算力、更大的模型)這件事推到極致。
沿著這一路線,在完成一兩次關鍵性突破后,Hassabis認為我們可能在5–10年后迎來「完整的AGI」。
當LeCun認為靠野蠻堆算力行不通,轉而押注「世界模型」時,Hassabis仍然堅信Transformer和Scaling Law是通往AGI的必由之路。
五年后,我們可能會發現其中一方是對的,也許他們會在某個意想不到的地方匯合。
無論結果如何,爭論的意義也許不在「普適智能」「通用智能」的名詞之爭,而是啟發我們如何理解「智能」本身。
畢竟,在很大程度上,這還是一條充滿未知的探索之路。



















