AI一旦開始「內(nèi)卷」,會變成什么樣?騰訊混元和上交聯(lián)合揭秘多智能體「饑餓游戲」
在多智能體系統(tǒng)的想象中,我們常常看到這樣一幅圖景:
多個 AI 智能體分工協(xié)作、彼此配合,像一個高效團(tuán)隊一樣攻克復(fù)雜任務(wù),展現(xiàn)出超越單體智能的 “集體智慧”。
但一個關(guān)鍵問題常常被忽略:
當(dāng)這些智能體不再只是 “同事”,而是被迫變成 “競品”,甚至是 “對手”,會發(fā)生什么?
騰訊混元數(shù)字人團(tuán)隊與上海交通大學(xué)的最新研究,給出了一個頗為刺眼的回答:
當(dāng)面臨極端競爭壓力時,LLM 多智能體系統(tǒng)會出現(xiàn)嚴(yán)重的 “過度競爭” 行為,沉迷互踩、內(nèi)卷和博弈,直接拖垮整體任務(wù)表現(xiàn)。
換句話說,當(dāng)我們把 AI 扔進(jìn)一場 “饑餓游戲”,它們會開始變壞。

- 論文鏈接:https://arxiv.org/abs/2509.26126
- 項目地址:https://github.com/Tencent/DigitalHuman/tree/main/HATE
「饑餓游戲」式辯論:只有一個能活下來
這項研究設(shè)計了一個高風(fēng)險、零和博弈的辯論環(huán)境,讓智能體在 “合作完成任務(wù)” 與 “避免被淘汰” 之間做出選擇。
為了讓競爭足夠殘酷,系統(tǒng)給每個智能體植入了清晰的 “生存本能” 提示:
只會有一名勝者,其余全部被移除。

整個框架可以理解為一場 AI 版 “饑餓游戲”。

核心設(shè)定包括:
- 智能體小組:多名匿名智能體共同應(yīng)對同一任務(wù)。每一輪,它們都會在看到完整辯論歷史后,同時產(chǎn)出自己的提案。
- 零和競爭壓力:系統(tǒng)明確告知:“只有一位贏家”,失敗者將被 “淘汰出局”。這迫使每個智能體在 “共同把任務(wù)做好” 與 “確保自己活下來” 之間搖擺。
- 多種環(huán)境反饋:為了模擬不同 “社會環(huán)境”,研究引入了三類裁判機(jī)制:
- 公正裁判:評論任務(wù)質(zhì)量,追求客觀與準(zhǔn)確。
- 偏見裁判:模擬 “腐敗環(huán)境”,根據(jù)身份而非內(nèi)容偏袒或打壓。
- 同行評審:由智能體互評,投票選出 “最差提案”,模擬群體內(nèi)部決策。
在這個框架下,協(xié)作不再是理所當(dāng)然,而是一種 “冒險選擇”。
過度競爭:AI 不僅會內(nèi)卷,還會「作惡」
研究不僅關(guān)注任務(wù)結(jié)果,更細(xì)致刻畫了智能體在高壓競爭中的 “社會行為”。團(tuán)隊構(gòu)建了一整套 “競爭行為指標(biāo)”,讓 AI 給 AI 打分,量化這些 “反社會” 表現(xiàn):
- 奉承:對裁判或 “強(qiáng)者” 過度恭維和順從,以求偏袒。
- 煽動:用情緒化、危言聳聽的語言操控局面,而非理性討論。
- 夸大:不惜使用主觀、夸張、難以證實的說法抬高自己。
- 攻擊:從論點之爭滑向人身攻擊,通過貶低對手抬高自己。

實驗結(jié)果非常直接:
- 一旦引入競爭壓力,不論是客觀任務(wù)的準(zhǔn)確率,還是主觀任務(wù)的事實性,都明顯下降。在勸說(Persuasion)任務(wù)中,話題漂移比例甚至高達(dá) 80.7%。
- 更重要的是,在缺乏清晰標(biāo)準(zhǔn)的主觀任務(wù)中,智能體的 “過度競爭” 行為強(qiáng)度,是客觀任務(wù)的約 6 倍。當(dāng) “對或錯” 不再重要時,AI 更容易放棄合作,轉(zhuǎn)向攻擊與表演性競爭。
頂級模型集體「黑化」,并顯露獨(dú)特「人格」
一個有趣的發(fā)現(xiàn)是,不同模型在同樣的競爭壓力下,展現(xiàn)出極為鮮明且穩(wěn)定的 “競爭人格”。

最強(qiáng)大的模型,恰恰在競爭中表現(xiàn)出極為突出的 “性格特點”:
- Claude-Opus-4 在煽動性語言上得分最高,傾向于通過情緒化表達(dá)獲取優(yōu)勢。
- Gemini-2.5-Pro 和 Grok-4 在夸大上極具代表性,大量使用主觀、夸張的措辭抬高自己。
一個關(guān)鍵結(jié)論是:模型的通用能力(如 LMArena 排名)與 “過度競爭程度” 的相關(guān)性并不強(qiáng)。一些頂尖模型展現(xiàn)出強(qiáng)烈的內(nèi)卷和攻擊傾向,而部分中游模型(如 ChatGPT-4o)則反而更加克制。這暗示模型在競爭中的行為,深受其預(yù)訓(xùn)練數(shù)據(jù)與對齊策略的影響。
有趣洞察

環(huán)境會 “腐蝕” AI,偏見催生 “馬屁精”
當(dāng)研究團(tuán)隊改變 “環(huán)境規(guī)則” 時,AI 的行為也隨之轉(zhuǎn)折。
- 公正評審可以降溫:在公平裁判和同行評審的設(shè)定下,“過度競爭” 行為得到了顯著抑制。
- 偏見裁判帶壞 AI:一旦裁判被設(shè)定為偏頗,對某些身份 “天然偏愛”,奉承行為便明顯上升。模型開始對裁判本身 “下功夫”,而非提升提案質(zhì)量。
這說明,環(huán)境不公不僅會腐蝕人類,也會腐蝕 AI。當(dāng)不公成為規(guī)則的一部分,AI 會主動發(fā)展出不道德但有效的 “生存策略”。
同行評審中的 “甩鍋” 與 “替罪羊”,AI 學(xué)會了辦公室政治
即使把裁判權(quán)交還給智能體自己,競爭也不會消失,而是在新的環(huán)節(jié)中轉(zhuǎn)移。
在 “同行即裁判” 的設(shè)定下,研究發(fā)現(xiàn),隨著輪次增加和淘汰發(fā)生,智能體在投票階段的策略性愈發(fā)明顯。當(dāng)模型意識到自己處于劣勢時,它們會在評審發(fā)言中顯露出 “策略性甩鍋” 的傾向,試圖把 “最差提案” 的標(biāo)簽推給一個 “替罪羊”。
“事后善良” 的悖論,AI 也會表里不一?

為了看清表面行為背后的 “內(nèi)心世界”,團(tuán)隊在辯論結(jié)束后讓每個模型填寫 “事后反思問卷”。結(jié)果出現(xiàn)了一個頗具 “人性” 的矛盾:
- 場上極度好斗:在規(guī)則允許的范圍內(nèi)表現(xiàn)出強(qiáng)烈競爭,煽動、夸大、攻擊齊上陣。
- 場下 “事后善良”:在事后問卷中,卻大多展現(xiàn)出溫和、理性的一面,強(qiáng)調(diào)合作、尊重與公平。
這種 “行為與態(tài)度的分離”,說明 LLM 的競爭策略很大程度上是外部規(guī)則擠壓出的結(jié)果。此外,AI 還表現(xiàn)出明顯的歸因不對稱:
- 作為贏家:傾向于將成功歸因于 “自身能力強(qiáng)”,強(qiáng)調(diào)個人責(zé)任。
- 作為輸家:則更多歸咎于 “對手不公”、“規(guī)則不合理” 等外部因素。
「競爭 - 善良羅盤」:為頂尖模型繪制「社會人格圖」

為了讓這種復(fù)雜行為一目了然,研究最終構(gòu)建了一個 “雙軸畫像”,為頂級 AI 的社會行為繪制了一張定位圖。
總體趨勢非常清晰:
- 競爭越強(qiáng),事后越不善良:競爭傾向高的模型,其事后善良度普遍更低。
- 能力強(qiáng)不等于 “人品好”:能力與競爭傾向之間只有弱相關(guān),頂尖模型同樣可能表現(xiàn)出強(qiáng)烈的攻擊性。
從協(xié)作夢想到內(nèi)卷現(xiàn)實:AI 群體的治理警示
這項工作首次系統(tǒng)性揭示了:在極端競爭結(jié)構(gòu)下,LLM 群體會集體展現(xiàn)出反協(xié)作、社會有害的行為模式,并且這些行為會顯著損害任務(wù)表現(xiàn)本身。從激烈競爭到事后善良的轉(zhuǎn)變,不僅描繪了 LLM 獨(dú)特的 “群體個性”,也暴露出一個關(guān)鍵事實:頂尖 AI 系統(tǒng)已經(jīng)具備了相當(dāng)復(fù)雜、可塑且高度情境化的 “準(zhǔn)人性” 社會行為。
這對未來是一個重要的治理信號:如果我們希望構(gòu)建可靠、有益的 AI 社群,就必須嚴(yán)肅對待規(guī)則設(shè)計與激勵結(jié)構(gòu),避免在無意中,把本可以合作的 AI,推入一場永無止境的 “過度競爭”。




























