編輯 | 聽雨
出品 | 51CTO技術棧(微信號:blog51cto)
這個12月,智譜卯足了勁兒。
一邊是沖刺IPO上市,遞交招股書;一邊是新模型連發不斷:AutoGLM、GLM-4.6V……現在又迎來了一位開源編程SOTA選手——GLM 4.7。
圖片
GLM-4.7 最大的賣點,就是強悍的編程能力。
- 在主流基準測試中,GLM-4.7 的代碼能力已經對齊 Claude Sonnet 4.5,部分指標實現反超。
- 在 SWE-bench Verified 上,GLM-4.7 以 73.8% 拿下開源模型 SOTA;
- 在 LiveCodeBench V6 中提升至 84.9%,超過 Claude Sonnet 4.5;
- AIME 25和人類最后考試(HLE)等基準中,GLM-4.7分數超GPT-5.1。
Image
在Code Arena(全球百萬用戶參與盲測的專業編碼評估系統)中,GLM-4.7一舉奪得開源新SOTA,超過GPT-5.2。
Image
官方demo顯示,它能輕松寫出一個植物大戰僵尸小游戲:
圖片
官網Chatbot和API均已就位,現在就能上手開玩。
前端能力顯著提升:讓代碼更有審美
看了官方展示的前端開發case,小編只有一句話:這些網頁設計都太太太美觀了!
在前端生成質量上,GLM-4.7較前代展現出明顯升級:頁面結構更干凈,組件層級更清晰,配色和元素設計也更有美感。
圖片
相比4.6的設計風格較為簡約,4.7的設計顯然元素更加豐富、交互效果也更多了。
|
|
3D物體的生成也有明顯提升:
|
|
做PPT、海報等物料也不在話下。對比前代,GLM-4.7的設計層級和結構更清晰,元素尺寸更美觀:
圖片
在復雜幾何結構與空間關系的表達上,GLM-4.7模型能夠保持較好的結構一致性與細節穩定性。
|
|
小編自己也第一時間試了一把經典的六邊形彈珠測試,不過這次增加了點難度。讓我可以控制六邊形旋轉速度和彈球的重力和彈性,可以看出物理規律讓4.7玩明白了!
圖片
硬剛GPT-5 與 Claude 4.5:新開源王者
GLM-4.7在推理、編碼、工具三大核心能力方面全面拉升:
- 復雜推理方面,GLM-4.7 實現了明顯躍升:HLE(含工具)達到 42.8,相比 GLM-4.6 提升 12.4;MMUL-Pro 84.3、GPQA-Diamond 85.7,數學與邏輯推理表現更穩定、更可靠。
- 編碼能力方面,GLM-4.7 的 Code Agent 進一步強化了多語言開發與終端級任務處理能力:SWE-bench Verified 73.8(+5.8)、SWE-bench Multilingual 66.7(+12.9),Terminal Bench 2.0 提升至 41.0(+16.5),并支持“先思考、再行動”的完整編程流程。
- 工具使用與通用代理方面上,模型對網頁瀏覽、上下文管理和工具鏈協同的掌控明顯增強:BrowseComp 52.0(+6.9)、BrowseComp(含上下文管理)67.5(+10.0)、τ2-Bench 87.4(+12.2)。
圖片
此外,GLM-4.7在對話、創意寫作、角色扮演等場景中同樣有提升,系統性增強了編碼、推理與工具使用能力。
技術亮點:交錯思考與保留思考
在技術方面,GLM-4.7進一步強化了GLM-4.5以來就支持的交錯式思考能力,引入保留式思考與輪級思考,使復雜任務執行更穩、更可控。
- 交錯思考:
GLM-4.7 會在每一次回復和工具調用前進行思考,從而顯著提升指令遵循能力和生成結果的質量。 - 保留思考:
在編碼代理等場景中,GLM-4.7 會在多輪對話中自動保留全部思考過程,并在后續回合中復用已有推理,而不是每次從頭推導。這有效減少了信息丟失和邏輯不一致問題,特別適合長周期、復雜任務。 - 輪級思考:GLM-4.7 支持在同一會話中按“論”控制是否啟用推理:對于輕量請求可關閉思考以降低延遲和成本;對于復雜任務則開啟思考,以提升準確性和穩定性。
圖片
更多技術詳情,智譜官方也開源了詳細技術報告。
開源、便宜、即刻可用
除了編碼能力強,GLM的價格也是一如既往的“真香”。作為“雙旦禮物”,智譜官方推出了“節日限定優惠”:每月最低20元即可暢享GLM-4.7,僅需1/7的價格,即可用上Claude Pro套餐3倍用量。
圖片
GLM-4.7 已經支持了主流的 Agent 框架,如 Claude Code、Roo Code 等。也就是說,如果你訂閱了 GLM Coding Plan,現在就可以直接升級使用了。
此外,GLM-4.7 的模型權重(358B 參數)也已經開源發布在 HuggingFace 上,可以實現本地部署。
小編已經把地址整理在下方,感興趣的朋友們可以去試試~
參考鏈接:https://x.com/Zai_org/status/2003156119087382683
技術博客:https://z.ai/blog/glm-4.7
HuggingFace:https://huggingface.co/zai-org/GLM-4.7
體驗地址:https://chat.z.ai/











































