国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

將智能植根于運(yùn)動之中——從AI模型到具身智能的下一個躍遷 精華

發(fā)布于 2025-7-10 06:58
瀏覽
0收藏

語言可以建模,圖像可以合成,聲音可以模仿。但唯獨(dú)“動作”,這個看似直觀、日常而簡單的維度,卻一直是人工智能最“心虛”的領(lǐng)域。

你有沒有注意到:生成模型已經(jīng)可以輸出篇章結(jié)構(gòu)清晰的文章,甚至能“畫”出栩栩如生的圖像,但它依然難以生成一次“自然的跌倒”,一個“真實的擊掌”,或是一個符合物理規(guī)律的“擁抱”。

原因并不復(fù)雜——我們在追逐人工通用智能時,或許遺漏了最根本的一點:智能從來不是懸浮在代碼和數(shù)據(jù)上的抽象邏輯,它根植于身體,發(fā)生在動作中。

《Grounding Intelligence in Movement》這篇由賓夕法尼亞大學(xué)團(tuán)隊撰寫的論文并不是給出一個新的模型或算法,而是提出一種新的智能建模觀念:讓“運(yùn)動”成為AI基礎(chǔ)模型的第一類公民。

智能,從來不是靜止的

在自然世界中,幾乎所有的信息處理最終都指向同一個終端:運(yùn)動。

無論是動物看到掠食者后轉(zhuǎn)身逃跑,還是人類在社交中用手勢與表情溝通,甚至是嬰兒在還不會說話前用“踢腿”探索世界——運(yùn)動既是感知的輸出,也是智能的呈現(xiàn)。

更進(jìn)一步,所有大腦對語言、視覺、聽覺的加工,都可以看作是為了更好地發(fā)出一個動作“指令”。這種以運(yùn)動為本體的智能觀,在神經(jīng)科學(xué)和行為學(xué)中早已根深蒂固。但在AI世界中,運(yùn)動卻常被看作“視頻的一部分”或“任務(wù)的附屬行為”,而不是一個需要獨(dú)立建模的通用維度。

研究團(tuán)隊強(qiáng)調(diào),運(yùn)動不僅是行為的結(jié)果,更是我們理解世界、預(yù)測意圖、建立交互的基礎(chǔ)窗口。

“簡單”的運(yùn)動,為什么成了AI最難的題?

這就是經(jīng)典的Moravec 悖論,在AI中,最容易被認(rèn)為是“低級”的技能(如走路、揮手)反而是最難建模的,而看起來“高級”的認(rèn)知任務(wù)(下棋、算數(shù))卻更容易被算法掌握。

運(yùn)動建模并不是缺乏數(shù)據(jù)。恰恰相反,我們擁有大量關(guān)于姿態(tài)、軌跡、加速度、神經(jīng)信號的視頻與傳感器數(shù)據(jù)。但問題在于:這些數(shù)據(jù)碎片化嚴(yán)重,被鎖定在各類具體任務(wù)中,缺乏統(tǒng)一建模框架,也少有人將運(yùn)動視為類似語言和圖像那樣的“基礎(chǔ)模態(tài)”。

更何況,運(yùn)動不是一種單一的數(shù)據(jù)類型,而是視覺、力學(xué)、時間序列、生理信號等復(fù)雜模態(tài)的交匯點。沒有合適的結(jié)構(gòu)化表示,就很難抽象出真正可泛化的運(yùn)動規(guī)律。

越來越多的學(xué)科同時在呼喚“理解運(yùn)動”的AI

這并不僅僅是AI模型精度的問題,它直接決定了多個關(guān)鍵領(lǐng)域的技術(shù)突破路徑。

在神經(jīng)科學(xué) 中,理解微小運(yùn)動的模式可能揭示帕金森、孤獨(dú)癥、腦癱等疾病的早期信號;

在機(jī)器人學(xué) 中,動作理解是實現(xiàn)類人運(yùn)動與自主交互的基石;

在行為心理學(xué)與社會神經(jīng)科學(xué) 中,動作是情緒、意圖與社交動機(jī)的主要載體;

在數(shù)字醫(yī)療與康復(fù)系統(tǒng) 中,動作質(zhì)量的追蹤與反饋是個性化治療與輔助系統(tǒng)的核心指標(biāo);

甚至在數(shù)字生態(tài)與動物研究 中,動物運(yùn)動數(shù)據(jù)已成為生態(tài)監(jiān)測與保護(hù)的重要來源。

當(dāng)多個學(xué)科開始將注意力集中到“運(yùn)動”這個維度,AI 社區(qū)再不行動,或許就真的錯過了下一個通用建模的突破口。

將智能植根于運(yùn)動之中——從AI模型到具身智能的下一個躍遷-AI.x社區(qū)

圖1:以生物運(yùn)動為核心的領(lǐng)域。生物運(yùn)動在神經(jīng)科學(xué)、醫(yī)學(xué)、計算機(jī)視覺和傳感器建模中至關(guān)重要——每個領(lǐng)域都提供了獨(dú)特但相互關(guān)聯(lián)的視角,以了解運(yùn)動是如何被跟蹤、建模和理解的。

核心研究團(tuán)隊團(tuán)隊來自賓夕法尼亞大學(xué),成員橫跨神經(jīng)科學(xué)、機(jī)器學(xué)習(xí)、生物工程與社會神經(jīng)科學(xué)。

主導(dǎo)者 Konrad Kording 教授,是“Neuromatch”平臺的創(chuàng)始人,倡導(dǎo)開放、因果導(dǎo)向的 AI 神經(jīng)研究;

Michael Platt 教授則將靈長類行為研究與神經(jīng)科學(xué)聯(lián)系在一起,探索社會動機(jī)的神經(jīng)機(jī)制;

Melanie Segado、Felipe Parodi、Eva Dyer 等成員則將精度醫(yī)學(xué)、動作捕捉與自監(jiān)督學(xué)習(xí)等方法深度融合;

團(tuán)隊成員不僅關(guān)注人類運(yùn)動,還深入研究非人靈長類動物行為,并跨模態(tài)整合視頻、傳感器與神經(jīng)數(shù)據(jù)。

這是一組試圖真正“統(tǒng)一感知與行動”的科學(xué)家們,他們比任何人都清楚:如果智能系統(tǒng)不能理解“走路、跌倒、揮手、震顫”,它就永遠(yuǎn)無法真正理解“生命”。

1.現(xiàn)有運(yùn)動模型圖譜,通往具身智能的三段路徑

第一段:姿態(tài)估計與形體建模,從二維關(guān)節(jié)點到全身結(jié)構(gòu),還原“誰在動”和“怎么動”

運(yùn)動智能的第一步,是讓機(jī)器能看懂“姿勢”。這一領(lǐng)域的躍遷,幾乎可以用“革命性”來形容。

曾經(jīng),我們只能通過造價高昂、布滿反光標(biāo)記的 MoCap 系統(tǒng)來獲得身體的三維動作信息。這種方式雖精準(zhǔn),卻極度受限于實驗環(huán)境,注定無法走入自然世界。

如今,以 SuperAnimal 和 ViTPose 為代表的基礎(chǔ)視覺模型,正在掀起新的浪潮。得益于 transformer 架構(gòu)和大規(guī)模訓(xùn)練,這些模型在“零樣本”設(shè)定下就能識別出不同物種、不同姿態(tài)的動作特征。不管是嬰兒揮手還是雪豹奔跑,模型都能捕捉核心結(jié)構(gòu)——這為跨物種的統(tǒng)一運(yùn)動建模奠定了基礎(chǔ)。

但僅靠二維關(guān)鍵點還不夠。運(yùn)動是空間中的形變過程,這就需要 mesh 重建。從 PromptHMR 到 SMPLer-X,從手部模型(MANO)到羽毛覆蓋的鳥體網(wǎng)格(Penn Avian Mesh),學(xué)界逐漸學(xué)會如何從視頻中“復(fù)原”一個具身體積的生物體。不僅是骨骼,還有肌肉、表情、頭發(fā)、衣物——所有這些都會影響動作的真實表現(xiàn)形式。

這種對“形”的建模,正是為了讓機(jī)器能更好地理解“動”。

第二段:動作識別與多模態(tài)融合——動作是什么?不僅要看,還得聽、測、推斷

讓機(jī)器知道一個身體“做了什么”,并不是一件容易的事。

目前 VideoMAE V2 已能識別 700 多種人類動作;而動物界的動作識別,比如 MammalNet 或 ChimpACT,識別的類別還遠(yuǎn)遠(yuǎn)落后。這些模型通過學(xué)習(xí)視頻片段中動作的演化,在像素的流動里尋找模式。

但人類行為從不只是一個動作序列,它往往有著情境中的目標(biāo)與動機(jī)。為此,多模態(tài)融合成為趨勢:視覺數(shù)據(jù)開始與文本(動作標(biāo)簽)、音頻(環(huán)境線索)、IMU(慣性)、EMG(肌電)信號協(xié)同訓(xùn)練。

典型如 LLaVAction 系統(tǒng),將 LLM 與視頻融合推理;又如 emg2pose,可以從 EMG 信號預(yù)測肢體姿態(tài),用于義肢控制等高敏感場景。感知與解釋的界限正在被打破。

然而,挑戰(zhàn)依舊明顯。當(dāng)前模型往往只能將動作分類為“跳躍”“走路”“投擲”,卻無法區(qū)分“我主動握手”與“我不自主震顫”,更談不上理解一個動作背后的情緒、意圖或病理征兆。

當(dāng)代運(yùn)動感知技術(shù)尚停留在“描述動作”,而非“理解行為”的階段。

第三段:從語言到動作的“編譯器”,可控且符合物理法則的身體合成

除了感知與分類,AI 也正努力邁出它的“下一步”——自主生成動作。

在最新思路中,動作被視為一種語言結(jié)構(gòu):由一個個姿態(tài)片段(token)組合而成。MotionGPT 和 ChatPose 將連續(xù)的運(yùn)動轉(zhuǎn)化為可學(xué)習(xí)的詞元序列,然后用類 GPT 的策略進(jìn)行生成、預(yù)測與補(bǔ)全。這不僅可用于動畫生成,還打開了“文字生成動作”的新篇章。

同時,擴(kuò)散模型也卷入這場“身體寫作”的競賽。Human Motion Diffusion Model(MDM)等系統(tǒng)通過逐步去噪的方式合成平滑的全身骨架動畫,MotionDiffuse 更進(jìn)一步,引入足部接觸點、骨骼限制等,使生成動作更貼近真實動態(tài)。

但身體不是紙面符號,它受力、交互、失衡、摩擦……所有這一切,都需要模擬器的支撐。OpenSim、Mujoco 等生物力學(xué)平臺使得 AI 不再“漂浮作畫”,而是學(xué)會“踩地發(fā)力”,生成“可落地”的動作。

不過需要指出:當(dāng)前自動回歸模型容易輸出“平均化動作”,忽略了動作中的微觀差異與動態(tài)節(jié)奏。生物的動作之美,往往藏在毫秒之間——這是機(jī)器尚未企及的精妙。

2.在世界模型框架中學(xué)習(xí)運(yùn)動

——讓智能在動態(tài)環(huán)境中“動起來”

在人工智能發(fā)展的長河中,若說有什么方法能讓AI真正“行動”起來,那么強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)無疑是那把鑰匙。它不僅教會機(jī)器“做什么”,更在試錯中引導(dǎo)它“怎么做得更好”。而當(dāng) RL 遇上世界模型(World Models),AI 不再只是環(huán)境的被動響應(yīng)者,而是真正具備了“預(yù)見未來”的能力。

將智能植根于運(yùn)動之中——從AI模型到具身智能的下一個躍遷-AI.x社區(qū)

圖2:跨物種和傳感器運(yùn)動建模的統(tǒng)一框架。ML社區(qū)已經(jīng)開發(fā)了所有這些組件。需要的是協(xié)調(diào)努力,將它們組合成一個專門構(gòu)建的框架,直接從聚合的運(yùn)動數(shù)據(jù)中學(xué)習(xí)運(yùn)動特征。

強(qiáng)化學(xué)習(xí),智能體的動作本能

強(qiáng)化學(xué)習(xí)的本質(zhì)是行為驅(qū)動:給予獎勵,設(shè)定目標(biāo),讓智能體反復(fù)試驗,逐步學(xué)會如何最優(yōu)地行動。這種“行為即學(xué)習(xí)”的機(jī)制,讓 AI 系統(tǒng)在復(fù)雜地形中導(dǎo)航、操控物體時展現(xiàn)出驚人的靈活性。

尤其在運(yùn)動任務(wù)中,RL 極其擅長處理那些無法預(yù)編程的動作序列。它可以訓(xùn)練出會越野奔跑的四足機(jī)器人,也可以塑造出能夠在非結(jié)構(gòu)化空間中完成抓取的機(jī)械臂。正因如此,RL 被視為讓 AI 學(xué)會“如何動”的重要支撐框架。

但強(qiáng)化學(xué)習(xí)也并非萬能。它的最大短板是:沒有目標(biāo),它就無法前進(jìn);目標(biāo)模糊,它就無所適從。這對于那些含有豐富語義與社交情境的動作,尤其是人類行為建模,構(gòu)成了巨大的障礙。

世界模型讓AI“演練未來”

相比 RL 的“邊做邊學(xué)”,世界模型強(qiáng)調(diào)的是“未卜先知”。它通過建立環(huán)境的動態(tài)預(yù)測模型,讓智能體在“腦海中”模擬行動可能帶來的后果,然后再選擇最優(yōu)路徑。

例如,NVIDIA 的 Cosmos 和Google 的 Genie 系列模型,正致力于訓(xùn)練 AI 能夠預(yù)測各種操作在未來時刻會帶來哪些變化——這相當(dāng)于把現(xiàn)實世界“搬”進(jìn)AI的認(rèn)知中,讓它提前在“腦中演練”。

當(dāng)世界模型與 RL 合作時,AI 就能實現(xiàn)更高效、更策略化的學(xué)習(xí),避免代價高昂的實際試錯。這種組合尤其適合訓(xùn)練“懂得避障、協(xié)調(diào)肢體、應(yīng)對環(huán)境反饋”的高階運(yùn)動系統(tǒng)。

成功案例與隱藏瓶頸

大家耳熟能詳?shù)?nbsp;Spot 機(jī)器人,是這一范式成功落地的最佳例證。它可以靈活地跨越崎嶇地形、應(yīng)對復(fù)雜障礙,幾乎具備“感知-計劃-行動”的閉環(huán)能力,這其中正有賴于 RL + 世界模型對多種運(yùn)動策略的整合訓(xùn)練。

然而,真正的問題往往藏在“邊界”里。

盡管 Spot 行走穩(wěn)定,但你有沒有注意到它在人類環(huán)境中的表現(xiàn)往往顯得“木訥”?它難以理解并回應(yīng)“人類手勢”或“情緒線索”,在與人協(xié)作的細(xì)節(jié)上,常常“跟不上節(jié)奏”。

這是因為當(dāng)前訓(xùn)練范式高度依賴具體定義的目標(biāo)與獎勵函數(shù),而現(xiàn)實世界中的意圖、社交互動或情緒驅(qū)動,往往難以被量化。當(dāng)目標(biāo)變模糊,模型的行為就容易走偏。

深度點評:從獎勵設(shè)計到物種遷移

研究團(tuán)隊指出三個關(guān)鍵瓶頸。

獎勵函數(shù)之痛:現(xiàn)實中的動作目標(biāo)復(fù)雜多變,要將其轉(zhuǎn)換為數(shù)值目標(biāo),對設(shè)計者而言仍是噩夢。

“仿真—現(xiàn)實”鴻溝:哪怕在模擬器中學(xué)得再好,一旦投放到現(xiàn)實世界,智能體面臨的物理變數(shù)、摩擦系數(shù)、偶發(fā)擾動都會讓學(xué)到的策略崩塌。

缺乏泛化的能力:一個能精準(zhǔn)模仿成人步態(tài)的模型,面對嬰兒的“無目的抖動”卻一籌莫展;同樣,它也無法無縫應(yīng)用于動物物種,不重新建模便難以適配不同的形態(tài)結(jié)構(gòu)和動作邏輯。

這意味著:目前的世界模型和 RL 系統(tǒng),在結(jié)構(gòu)上仍過于“定制化”,難以承載“統(tǒng)一運(yùn)動建模”的重任。

3.邁向統(tǒng)一的運(yùn)動建模框架

從碎片數(shù)據(jù)到具身認(rèn)知主干的整合工程

聚合“運(yùn)動數(shù)據(jù)資產(chǎn)”:從分散的動作捕捉走向統(tǒng)一神經(jīng)運(yùn)動生態(tài)

如果說通用運(yùn)動模型是智能系統(tǒng)的運(yùn)動“大腦”,那第一步就是為它匯聚足夠“豐富”的運(yùn)動“記憶”。

目前已有的運(yùn)動數(shù)據(jù)資源可謂琳瑯滿目。

像 AMASS、Human3.6M 這樣的高質(zhì)量動作捕捉庫,為三維姿態(tài)建模提供黃金標(biāo)準(zhǔn);

Motion-X 不僅匯聚了現(xiàn)有數(shù)據(jù),還擴(kuò)展了網(wǎng)絡(luò)爬取來源,正在構(gòu)建“互聯(lián)網(wǎng)級動作數(shù)據(jù)集”;

EgoBody 則開啟“第一人稱動作數(shù)據(jù)”范式,讓模型理解社交互動中的視角差異。

而在動物研究領(lǐng)域,MammAlps 通過野外攝像頭實現(xiàn)對哺乳動物自然行為的觀察,MmCows 更整合了農(nóng)用傳感器、氣候與視頻,構(gòu)建“奶牛行為大數(shù)據(jù)”。

這些數(shù)據(jù)雖豐富,卻像散落的拼圖片段。正因如此,研究團(tuán)隊提出要推動標(biāo)準(zhǔn)格式(如類 BIDS)和靈活加載器的建立,并強(qiáng)調(diào):“運(yùn)動數(shù)據(jù)不僅要看,還要知道它在什么背景下發(fā)生”。 也就是說,所有的運(yùn)動都應(yīng)攜帶上下文——時刻、場景、物體、社會關(guān)系、甚至天氣——否則只是空洞的動作軌跡而已。

預(yù)訓(xùn)練多模態(tài)主干,建造“動作界的GPT”,需要怎樣的骨架與血肉?

構(gòu)建一個類似語言領(lǐng)域 GPT-4 的“動作大腦”,并不是簡單堆疊模態(tài)和算力,而是要把以下幾點做到極致。

結(jié)構(gòu)設(shè)計:引入“共教師機(jī)制”。即模型不必去理解整個世界,而是通過“對象提示”、環(huán)境音、交互文本等“協(xié)同信號”幫助其學(xué)習(xí)動作的潛在動機(jī),就像人類寶寶通過父母的引導(dǎo)學(xué)習(xí)抓握。

隱私友好:打造“聯(lián)邦學(xué)習(xí)易用套件”。尤其是在 NICU 新生兒監(jiān)測、康復(fù)訓(xùn)練等場景下,數(shù)據(jù)往往只能留在醫(yī)院或設(shè)備端,模型要“拜訪數(shù)據(jù)”,而不是讓數(shù)據(jù)“走出醫(yī)院”。

感知增強(qiáng):精細(xì)動作數(shù)據(jù)需要精細(xì)工具。傳統(tǒng)的數(shù)據(jù)增強(qiáng)操作如加噪或左右翻轉(zhuǎn),可能會扭曲如震顫、偏側(cè)缺陷等關(guān)鍵信號。模型訓(xùn)練前的“加工方式”必須重新定義,聽懂病理動作不能靠糊弄。

擬真損失:向物理與生理規(guī)律看齊。模型輸出若違反骨長恒定、接觸力邏輯、加速度約束,就可能生成“漂浮踢腿”或“脫臼式奔跑”的錯誤動作。因此,優(yōu)化目標(biāo)必須嵌入物理現(xiàn)實。

高影響應(yīng)用場景評估:評估不止于正確率,更關(guān)乎后果

運(yùn)動模型的真正價值,不在于是否能贏下 benchmark 榜單,而在于:它能否在關(guān)鍵場景里“救人、助生、護(hù)物種”。

在醫(yī)療康復(fù)中,模型能否準(zhǔn)確檢測帕金森病早期細(xì)微步態(tài)改變?在生態(tài)監(jiān)測中,它能否識別出威脅物種的行為模式?在人機(jī)交互中,它能否理解用戶的肢體反饋進(jìn)行自然適配?這些問題是對模型的終極檢驗。

為此,論文呼吁建立新的評估體系。

具備“因果性驗證”:即模型是否能推理出如果發(fā)生某種身體限制,動作會如何變;

支持“跨域泛化”:一個模型能否跨越年齡、物種、體型,從嬰兒抓握學(xué)到牛群導(dǎo)航;

強(qiáng)調(diào)“隱私魯棒性”:確保數(shù)據(jù)加密、身份保護(hù)下模型依然可靠運(yùn)行。

從技術(shù)到現(xiàn)實:打造產(chǎn)業(yè)落地鏈條的“韌帶與骨架”

當(dāng)前運(yùn)動模型的開發(fā),多停留在“實驗室demo”和“論文benchmark”的層面,但要真正走進(jìn)康復(fù)設(shè)備、交互系統(tǒng)、農(nóng)業(yè)監(jiān)測、機(jī)器人生態(tài),就必須解決:

  • 模型部署的軟硬件兼容性;
  • 通用主干與定制模塊的模塊化拼接;
  • 數(shù)據(jù)采集、標(biāo)注與增量學(xué)習(xí)的閉環(huán)系統(tǒng);
  • 以及模型生命周期中的安全、倫理與更新機(jī)制。

只有把科研成果“骨肉化”,建立完整“運(yùn)動智能工程鏈”,才能真正釋放其價值。

4.替代觀點與專業(yè)反駁

為什么我們不能只靠“越來越大的模型”?

不是更大,而是更對

有觀點認(rèn)為:“既然視頻生成模型、RL智能體都能處理動作問題,為何不繼續(xù)擴(kuò)大它們就行?”

研究團(tuán)隊明確反駁:規(guī)模并不是萬能解藥。

即便是像 Google Veo、OpenAI Sora 這樣頂級的視頻模型,仍然無法生成一次符合物理邏輯的“高五”或“絆倒”——它們像是在“動畫世界”工作,而非“真實世界”。

相反,一個專為“動作理解”打造的模型,應(yīng)當(dāng)像GPT-4、Gemini、LLaMA 等語言模型一樣,專注且深刻地建構(gòu)某一智能維度的結(jié)構(gòu)性表征。它不僅僅是“能學(xué)”,更是“知道怎么學(xué)”,這需要對動作的物理性、結(jié)構(gòu)性和語義性有深度建模。

為什么“運(yùn)動”更像 GPT,而不是 GATO

一些人將廣義“多任務(wù)模型”類比為GATO——一個嘗試什么都做但什么都一般的AI。而本文提出的“統(tǒng)一運(yùn)動模型”,更像GPT-4 對語言的建模。

原因在于:語言與動作都具備強(qiáng)結(jié)構(gòu)性、語用依賴性與跨任務(wù)遷移特性。正因如此,打造一個“運(yùn)動領(lǐng)域的主干模型”,比搞一個什么都沾但啥都淺的一體機(jī)更可行。

重塑格局:從重復(fù)建設(shè)到共享“運(yùn)動知識基座”

今天的現(xiàn)實是:每一個康復(fù)工程師、機(jī)器人開發(fā)者、神經(jīng)科學(xué)家都要搭建屬于自己的運(yùn)動模型管道。這種重復(fù)造輪子的模式不但低效,也形成了“高門檻、低再用”的行業(yè)壁壘。

統(tǒng)一模型框架的真正意義在于降低入門門檻,讓非機(jī)器學(xué)習(xí)專家也能調(diào)用高質(zhì)量運(yùn)動表示;減少資源浪費(fèi),避免“換物種換模型”的重復(fù)訓(xùn)練;構(gòu)建類似“代碼即語言”的新范式,讓動作建模真正普惠于各行各業(yè)。

5.結(jié)語與展望

讓智能“動”起來,才算真正活過來

當(dāng)我們談?wù)摗巴ㄓ萌斯ぶ悄堋保劢拐Z言推理、圖像感知或知識抽取。可若沒有對“運(yùn)動”的建模,AI注定只能停留在屏幕里的幽靈,無法走進(jìn)現(xiàn)實世界的真實交互場景。

這項研究提醒我們:運(yùn)動是智能的語法,是理解環(huán)境、表達(dá)意圖、體現(xiàn)個性與適應(yīng)復(fù)雜任務(wù)的關(guān)鍵。未來的 AI,不應(yīng)只是能“看圖說話”或“邏輯縝密地寫論文”,它必須能“看人走路就讀懂情緒”、“看動物奔逃就預(yù)測生態(tài)趨勢”,乃至“看你顫抖就提前感知疾病”。

這意味著,運(yùn)動模型不再只是服務(wù)動畫師和機(jī)器人專家的“工具箱”,而將成為數(shù)字醫(yī)療、個性化人機(jī)交互、智能監(jiān)測與生態(tài)建模等應(yīng)用中的基礎(chǔ)設(shè)施。

智能,不僅僅是知道“說什么”——它更在于知道“什么時候動、怎么動、為何而動”。

協(xié)同共建:讓數(shù)據(jù)共享從“API”變?yōu)椤癉AO”

研究團(tuán)隊提到一種迫切而現(xiàn)實的問題,運(yùn)動數(shù)據(jù)極其敏感,尤其涉及醫(yī)療場景、生理信號和用戶身體隱私。正因如此,它常常被封鎖在醫(yī)院服務(wù)器、實驗室硬盤,研究無法擴(kuò)展,模型難以迭代。

這一挑戰(zhàn)給Web3生態(tài)和DAO機(jī)制提供了理想落點。

分布式存儲與加密計算可以確保個人運(yùn)動數(shù)據(jù)不被直接提取卻可供模型參與訓(xùn)練;

DAO式研究協(xié)作可通過社區(qū)共識決定“共享何種數(shù)據(jù)、由誰調(diào)用、為何目的”;

數(shù)據(jù)質(zhì)押與代幣激勵為醫(yī)療機(jī)構(gòu)、患者或設(shè)備制造者帶來貢獻(xiàn)回報,鼓勵合法、安全的數(shù)據(jù)流通。

換句話說,讓模型“動”起來,也許需要一種“自下而上”的數(shù)據(jù)社會機(jī)制,它既保障個體隱私,又推動運(yùn)動智能的協(xié)同演化。這是傳統(tǒng)科研范式難以完成的事,但 Web3 可以。

未來十年,看懂一個“抖動”的智能系統(tǒng)

當(dāng)下的AI系統(tǒng)多數(shù)是靜態(tài)的,它們“在看”、“在說”、但很少“在做”。而真正的智能,不會止步于思考本身,而要在真實環(huán)境中起身、轉(zhuǎn)身、感知世界、再重新判斷。

未來值得關(guān)注的研究方向正是那些能讓AI“動起來、穩(wěn)下來、感知外部、理解內(nèi)在”的系統(tǒng)。

具身因果建模(Embodied Causal Modeling):AI不僅要觀察動作,還要理解它為什么發(fā)生、如果環(huán)境改變會如何演化。

實時交互感知系統(tǒng):打造能在物理世界中“即興反應(yīng)”的智能體,而不是只會在訓(xùn)練數(shù)據(jù)中回放。

多物種、多體態(tài)的動作生態(tài)圖譜:從人類、動物到機(jī)器人,構(gòu)建統(tǒng)一的身體語義表征,使跨個體的行為建模成為可能。

運(yùn)動驅(qū)動的情感與社交模擬:理解一個眼神的停留、一只手的停頓背后的情緒波動,將成為人機(jī)情感交互的新里程碑。(END)

參考資料:???https://arxiv.org/abs/2507.02771??

本文轉(zhuǎn)載自??波動智能???????,作者:FlerkenS

收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦
91精品国产99久久久久久红楼| 亚洲一区二区三区视频播放| 在线91av| 久久精品理论片| 久久久久久久久久久免费 | 色成人免费网站| 久久99999| 99久久99久久精品国产片桃花| 精品日韩成人av| 青青久在线视频| 中文字幕亚洲成人| 久久久久久久香蕉| 丝袜诱惑制服诱惑色一区在线观看 | 欧美嫩在线观看| 好男人看片在线观看免费观看国语 | 18免费在线视频| 亚洲女女做受ⅹxx高潮| 久久国产精品视频在线观看| 国产精品吹潮在线观看| 日本不卡在线| 亚洲免费av观看| 亚洲欧美另类动漫| 一区二区三区欧美| 国产区视频在线播放| 欧美性色黄大片手机版| a视频网址在线观看| 色老汉av一区二区三区| 亚洲电影在线播放| 日日夜夜精品视频免费| 夜夜精品视频一区二区 | 8v天堂国产在线一区二区| 成人国产精品久久久| 三上悠亚在线免费观看| 色噜噜成人av在线| 国产午夜精品久久久久久免费视| 欧美黑人xxxx| 精品欧美一区二区在线观看视频| 中文国产字幕在线观看| 国产婷婷精品| 欧美国产在线观看| 亚洲综合视频1区| 青青久久av| 欧美丰满老妇厨房牲生活| 女人让男人操自己视频在线观看| 91精品欧美一区二区三区综合在| 国产精品四虎| 欧美系列日韩一区| 最新国产在线观看| 欧美老肥妇做.爰bbww| av电影在线网| 欧美日韩精品一区二区三区| 高清性色生活片在线观看| 91福利社在线观看| 国产高清视频在线| 91精品婷婷国产综合久久性色| 午夜在线观看视频| 日韩一级免费一区| 多野结衣av一区| 亚洲人成电影在线观看天堂色| 吞精囗交69激情欧美| 国产一区二区免费| 欧美videos粗暴| 亚洲精品乱码久久久久久日本蜜臀| 午夜国产福利在线| 三级在线播放| 日韩欧美在线精品| 国产精品久久久久久久天堂| 日本精品三区| www 成人av com| 性欧美精品高清| 欧美性生交大片免费| av影片在线看| 国产 欧美在线| 欧美一级片在线播放| 国产日韩三区| 久久亚洲风情| 日韩黄色片在线| 国产日韩av一区二区| 免费福利影院| 欧美视频在线播放| 欧美va在线观看| 欧美中文字幕在线视频| 欧美视频日韩| 欧美高清中文字幕| 亚洲男女一区二区三区| 成年人视频在线看| 亚洲欧洲偷拍精品| 欧美理伦片在线播放| 97伦理在线四区| 激情五月激情综合网| 16—17女人毛片毛片| 欧美区在线观看| 日本免费在线一区| 国产精品色视频| 捆绑调教美女网站视频一区| 99爱免费视频| 日韩欧美电影一区| 日韩欧美ww| 亚洲精品乱码视频| 亚洲欧洲色图综合| 日本h片在线观看| 久久露脸国产精品| 亚洲日产国产精品| 99视频在线免费| 欧美三级电影网站| 99香蕉久久| 精品成人免费| 国产成人一区二区三区免费看| 久久国产成人午夜av影院| 很黄很a的视频| 亚洲国产成人在线播放| 妖精一区二区三区精品视频| 亚洲一区不卡在线| 欧美日韩国产在线| 色成人综合网| 日韩三级电影| 亚洲国产精品久久人人爱蜜臀| 亚洲精品中文字幕| 91黄色国产视频| √…a在线天堂一区| 日产精品一区| 日韩欧美视频一区二区三区四区| 亚洲成人av资源| 一区二区三区欧洲区| 红桃一区二区三区| 欧美一区二区啪啪| 亚洲精品成人影院| 中文字幕高清20页| 欧美日韩成人综合在线一区二区| 奇米亚洲欧美| 8x8x最新地址| 国产一区二区黑人欧美xxxx| 一本色道久久综合亚洲精品高清| 蜜桃传媒九九九| 久久人体大胆视频| 国产精品中文欧美| 俄罗斯一级**毛片在线播放| 国产精品盗摄久久久| 国产日韩欧美精品综合| 亚洲成av在线| 国产日韩视频在线播放| 91精品国产福利在线观看| 仙踪林久久久久久久999| www.99.热| 精品中文字幕在线2019| 成人高清视频在线观看| 国模套图日韩精品一区二区| 欧美亚洲国产免费| 91精品国产入口| 亚洲每日在线| 日本网站在线免费观看视频| 国产91精品一区二区绿帽| 色综合色狠狠天天综合色| 天天色天天射综合网| 小水嫩精品福利视频导航| 欧日韩在线观看| 中文字幕中文字幕一区| 欧洲vs亚洲vs国产| 在线播放evaelfie极品| 国产www精品| 五月婷婷综合网| 欧美日韩日本国产亚洲在线| aaa在线观看| 欧美另类一区| 亚洲成人教育av| 国产99久久久国产精品| 成人精品小蝌蚪| 国产伦精品一区二区三区免费优势 | 婷婷成人激情| 国内精品久久久久| 国产丶欧美丶日本不卡视频| 加勒比久久高清| 三区四区在线视频| www.国产亚洲| 亚洲va电影大全| 久久精品午夜| 欧美性高潮在线| 999www成人| 欧美精品久久久久a| 国产清纯白嫩初高生在线观看91| 99re8这里有精品热视频免费| 成人黄色激情网站| 国产成人精品av在线| 色综合久久九月婷婷色综合| 亚洲福利国产| 亚洲午夜天堂| 国产熟女高潮视频| 国产精品久久9| 欧美视频精品在线| 久久狠狠亚洲综合| 免费观看亚洲视频大全| 欧美r片在线| 久久久久久九九九九| 亚洲性xxxx| 亚洲女人****多毛耸耸8| 亚洲国产高清一区| 日韩福利影视| 免费一级在线观看播放网址| 黄色一级视频播放| 青青草原一区二区|