像P圖一樣改視頻?可靈O1來了,視頻生成領域的“瑞士軍刀”
作為一名每天都在和各種AI模型“斗智斗勇”的內容創作者,我不得不承認,視頻生成這塊骨頭一直是最難啃的。我們要么在不同工具間反復橫跳,要么對著生成的視頻里亂飛的五官嘆氣。
但最近,快手旗下的可靈AI發布了全新的“可靈O1”模型,并且已經在LiblibAI上線。上手體驗了一番后,我那種“終于等到你”的感覺非常強烈。它不是簡單的畫質升級,而是改變了玩視頻的邏輯。

為什么叫O1?不僅僅是名字好聽
O1代表的是Omni,也就是“全能”。
以前我們做AI視頻是怎樣的?先用Midjourney出圖,再用Runway或者Luma讓圖動起來,如果想改個細節?對不起,重抽卡吧。
可靈O1最大的突破在于它是一個“統一多模態架構”。別被這幾個技術名詞嚇跑,說人話就是:它把文生視頻、圖生視頻、視頻編輯全部揉進了一個引擎里。你不需要切換工具,在一個對話框里就能搞定所有事情。這就像是你從帶著一堆螺絲刀、錘子、扳手出門,變成只帶了一把瑞士軍刀。
能聽懂人話的“剪輯師”
這個模型最讓我驚喜的是它的理解能力。它引入了MVL(多模態視覺語言)交互架構和Chain-of-thought(思維鏈)技術。
這意味著什么?意味著它真的能聽懂你在說什么,并且具備一定的物理常識。
舉個例子,如果我上傳一段夏天的視頻,對它說“把夏天變成冬天”,它不僅僅是把畫面調冷,它可能會給樹加上積雪,給人物加上哈氣。或者你覺得畫面里那個路人礙眼,直接輸入“刪除路人”,它就能像PS里的內容識別填充一樣,把人抹掉并自動補全背景。
它甚至支持像“@某張圖片 + @某個視頻 + 生成下一個鏡頭”這樣的組合指令。這種“指哪打哪”的像素級語義重構,才是創作者真正需要的生產力。
告別“變臉”,角色終于穩了
做連續劇情短片最大的噩夢就是角色一致性。往往第一個鏡頭主角是吳彥祖,下一個鏡頭就變成了吳孟達。
可靈O1在這個痛點上下了狠功夫。它支持最多7張參考圖輸入,并且有一個專門的主體庫。在實測中,即使鏡頭發生大幅度的運鏡或者場景切換,主角的臉部特征、衣服細節依然能保持高度穩定。
對于那些想做AI電影或者連載短劇的朋友來說,這絕對是個殺手锏。
實誠的測評:優點突出,但也別神化
雖然吹了這么多,但作為一名客觀的測評者,我得潑點冷水,讓大家有個合理的預期。
首先,它是剛發布的一代模型。目前生成的視頻分辨率最高是1080p,還沒到4K級別。如果你是追求極致畫質的“數毛黨”,可能在人物特寫時會發現面部細節還不夠完美。
其次,它目前是個“啞巴”。雖然視頻生成很強,但它不支持生成音效或對白,聲音部分還得靠你自己后期合成。
再者,它對特別復雜的動詞指令,比如“躡手躡腳地潛行”這種帶有微妙情緒和姿態的詞,理解上偶爾還會差點意思。
圖片
在哪里能玩到?
目前體驗這個模型最方便的渠道是LiblibAI平臺,作為首發合作方,入口很顯眼。當然,你也可以去可靈AI的官網或App。
總結一下
可靈O1不是那種只會在參數上卷數字的模型,它是奔著解決實際工作流問題去的。雖然它還不完美,但它展示了一種可能性:未來的視頻創作,真的可以像現在P圖一樣簡單、直觀、隨心所欲。
對于我們這些創作者來說,工具的門檻越低,留給創意的空間就越大。這就夠了。

























