編輯 | 云昭
出品 | 51CTO技術棧(微信號:blog51cto)
大家還記得Mira Murati嗎?那個曾經主導ChatGPT開發的“AI女王”,OpenAI的前CTO,2024年突然離職后,讓整個科技圈炸鍋!
她沒閑著,2025年2月就低調創辦了Thinking Machines Lab,帶著一群OpenAI舊將,直接殺入AI前沿戰場。
短短幾個月,融資20億美元,估值飆到120億美元,現在更傳出新一輪融資目標直沖500億美元!這速度,這手筆,簡直是AI界的“神話”!而最近的重磅炸彈來了:他們的首款產品Tinker正式全面開放!不再需要等待名單,人人可用!
圖片
她在X上發帖:Tinker 已經全面可用,并更新了新模型和新功能,這其中就包括兩款國產模型:Kimi K2 Thinking 和 Qwen-VL系列。
前OpenAI CTO盯上了被忽視的“中間層”
離開 OpenAI 之后,Murati 的 Thinking Machines Lab 并沒有急著再做一個“更強的模型”。
他們團隊選擇切入的是一個看起來不性感但又非常關鍵的位置:模型訓練與模型使用之間的斷層。
在行業敘事里,大模型微調有一種很簡單的說法:“準備數據 → 調幾個參數 → 跑一輪訓練”。但現實中,大多數團隊卡在了這些地方:
- 訓練流程復雜,調參、調度、監控彼此割裂
- 模型只能“訓完再看”,中途幾乎無法驗證效果
- 推理接口不統一,訓練出來的模型難以直接上線
- 不同模型、不同框架,遷移成本極高
- 當然還有一點,GPU 太貴了!
微調不是一項算法能力,而是一整套工程系統能力。這也是為什么,真正把微調用起來的,往往是少數大廠或頂尖研究團隊。
圖片
Thinking Machines 的聯合創創始人Lilian Weng就曾發帖解釋了業界研究者微調前沿大模型的困局:
現在GPU 價格昂貴,而且要把整套基礎設施搭建好、讓 GPU 真正高效地為你工作,本身就非常復雜。這使得研究人員和機器學習從業者在前沿模型上的實驗變得困難重重。
因此,提供高質量的研究工具,是提升更廣泛社區研究效率最有效的方式之一,而 Tinker API 正是我們朝這個使命邁出的重要一步。
所以,Thinking Machine Labs 要做的就是就是把模型訓練這件高度封閉的事情,改造成面向大眾選手的、可“邊訓練、邊驗證”的工具。
今年10月,Thinking Machine Labs 團隊終于發布了產品 Tinker!讓開發者們告別了“基礎設施煩惱”。
Tinker到底有多牛?
簡單說,Tinker是一個超級強大的AI模型微調平臺,讓開發者、研究者和普通黑客都能輕松定制前沿大模型,而不用自己操心復雜的分布式訓練、GPU集群和基礎設施。
這就是Tinker的設計理念:讓用戶能夠專注于LLM微調中真正重要的部分——數據和算法,而平臺則負責處理分布式訓練的繁重工作,比如后臺自動處理調度、資源分配、故障恢復等。
圖片
在Tinker上,用戶只需在自己的CPU機器上編寫一個簡單的Python訓練循環,其中包含數據(或環境)和損失函數。Tinker平臺則負責將用戶指定的計算任務,高效、精確地運行在大量GPU上。
值得一提的是,在Tinker上切換不同規模的模型非常簡單,從一個小型模型換到一個大型模型,只需在代碼中更改一個字符串。
圖片
更令人叫好的是,Tinker并非一個讓微調變簡單的黑盒,而是一個清晰的抽象層。它在為用戶屏蔽分布式訓練復雜性的同時,完整保留了用戶對訓練循環和所有算法細節的控制權。
在Tinker中,即便模型還在訓練,也可以通過標準接口直接調用,查看當前效果。
今天全面開放,三項更新
這次的Tinker已經全面面向公眾開放注冊,已經無需 waitinglist 的等待。
入口地址:https://thinkingmachines.ai/tinker/
這還沒完,今天 Tinker 還推出了三項重磅更新!
圖片
第一,新增萬億參數級推理模型:支持Kimi K2 Thinking模型。眾所周知,該模型是專為長時長推理和工具調用設計的“怪物級”模型!這也是Tinker目前產品線中最大的模型。用戶現在可以在 Tinker 上對 Kimi K2 Thinking 進行微調。
第二,視覺語言模型加持:新增了兩款Qwen3-VL系列模型,Qwen3-VL-30B-A3B-Instruct 和 Qwen3-VL-235B-A22B-Instruct。
借助這兩款模型,用戶可以處理圖片、屏幕截圖和圖表,用于各種應用場景。
用戶如果想輸入中上傳圖像,只需將包含圖像(以字節形式保存)的圖像塊與文本塊交錯排列即可。
model_input=tinker.ModelInput(chunks=[tinker.types.ImageChunk(data=image_data,format="png"),tinker.types.EncodedTextChunk(tokens=tokenizer.encode("What is this?")),])
這意味著,開發者也可以在Tinker上玩轉多模態AI了!
第三,兼容OpenAI API:新增了與 OpenAI API 兼容的腳手架功能,用戶可以通過指定路徑快速從模型中采樣,即使模型仍在訓練中。這也意味著 Tinker 現在可以即插即用,與任何兼容 OpenAI API 的平臺配合使用。
respnotallow=openai_client.completions.create(model="tinker://0034d8c9-0a88-52a9-b2b7-bce7cb1e6fef:train:0/sampler_weights/000080",prompt="The capital of France is",max_tokens=20,temperature=0.0,stop=["\n"],)
可以說,本質上做了三件事:
一、讓模型在訓練過程中就能被調用和驗證;二、用 OpenAI API 兼容接口,統一推理使用方式;三、把推理、微調、多模態能力,壓進一個工程平臺里。
如何用?1條樣本讓千問模型學會識別新物種
那么Tinker怎么用呢?官網上還放出了一個非常有意思的實例教程:微調一個視覺語言模型(也就是現在很流行的VLM)圖像分類器。
團隊發現,即便每個類別只有一個樣本,Qwen3-VL-235B-A22B-Instruct 也能取得合理的準確率;隨著標注數據的增加,性能還會進一步提升。
圖片
在放出的CookBook中,團隊用Qwen3-VL模型戰勝了常被用作純計算機視覺任務的骨干網絡的 DINOv2 (一個自監督的視覺 Transformer)。
文章中還解釋了原因——因為VLM模型天生具備語言知識。
在小樣本數據場景下,Qwen3-VL-235-A22B 的表現優于 DINOv2。這不僅因為它模型規模更大,還因為作為 VLM,它天生具備語言知識(例如知道“金毛尋回犬”或“向日葵”是什么)。
正是這種語言與視覺相結合的通用能力,使 Qwen3-VL 能夠輕松擴展到分類之外的更多視覺任務。
為什么業界如此看重這家Lab?
首先,毫無疑問是 Mira Murati的個人光環。
她是ChatGPT的核心締造者之一,離職后直接拉起一支“OpenAI夢之隊”,包括John Schulman、Lilian Weng等大牛。她的每一步都牽動AI圈神經!
其次,AI民主化浪潮。當下AI越來越封閉,OpenAI、Google們把頂級模型鎖得死死的。Tinker反其道而行,推動開放科學,讓更多人參與前沿研究。這不只是工具,更是理念革命!
然后,時機完美。2025年AI競賽白熱化,Tinker一出,直接拉低了自定義模型門檻。想象一下:數學推理、化學建模、法律文書、醫療診斷……無數場景即將爆發新應用!
以前 fine-tuning 大模型是巨頭們的專利,需要海量計算資源和工程團隊?,F在?Tinker 把門檻砸到地板,讓中小團隊、獨立開發者也能玩轉前沿AI!
Mira Murati說,這正是他們公司的愿景:讓AI更易懂、更可定制、更普惠,讓每個人都能探索AI的極限。
讓人工智能系統被更廣泛地理解、可定制并具有普遍能力,通過堅實的基礎、開放的科學和實際的應用,讓人工智能變得更有用、更易懂,從而推動人工智能的發展。
接下來,這支夢之隊計劃如何?很簡單又很偉大,只有四個字:全面微調!
圖片
期待這臺“思考機器”,接下來給世界帶來的新產品!


































