LLM遇上表格:4類表示、5大任務(wù)、3大機(jī)會(huì)
1. 表格讓大模型頭疼?
文本是線性的,而表格是二維、結(jié)構(gòu)多變、目的多樣的——從嚴(yán)謹(jǐn)?shù)臄?shù)據(jù)庫到多層嵌套的 Excel,再到 Wikipedia 的 Infobox。把 LLM 處理表格的“痛苦”總結(jié)為三點(diǎn):
痛點(diǎn) | 概況 |
任務(wù)單一 | 90% 的 Benchmark 都在考「檢索+簡單數(shù)學(xué)」,真正需要推理的很少 |
輸入復(fù)雜就崩 | 長表、多表、層級(jí)表、跨文檔表,人類 80+ 分,SOTA 模型 50 分不到 |
表示不統(tǒng)一 | 同一張表換個(gè) JSON / HTML / Markdown,性能就能掉 5 個(gè)點(diǎn) |

左側(cè)用Text-To-Sql可解決,相比之下,右側(cè)展示的是需要高級(jí)推理或涉及復(fù)雜輸入的任務(wù)。

大模型表格處理任務(wù)的工作流
2. 先把“表”說清楚:四種輸入表示法
把 LLM 能“吃進(jìn)”的表格表示分成 4 大類(對(duì)應(yīng) Figure 4):

表示方式 | 優(yōu)點(diǎn) | 缺點(diǎn) | 典型 Benchmark |
Serialization 序列化 | 直接用文本,最簡單 | 結(jié)構(gòu)信息易丟失 | WTQ, TabFact |
Schema 只給表頭+列類型 | 省 token | 細(xì)節(jié)全丟 | Spider, SEDE |
Image 表格截圖 | 保留完整視覺結(jié)構(gòu) | 受分辨率限制 | VISTABNet |
Table Encoder 專用編碼器 | 結(jié)構(gòu)感知最強(qiáng) | 需要額外預(yù)訓(xùn)練 | TableGPT2, TAPAS |
實(shí)驗(yàn)發(fā)現(xiàn):同樣一道題,把 Markdown 換成 LaTeX,EM 分?jǐn)?shù)最多差 20%給了三種序列化示例:

3. 5大人任務(wù)全景:不止Text-to-SQL
整理了 3 大經(jīng)典任務(wù) + 2 個(gè)新興方向,并給出所有 Benchmark 一覽(Table 1~4):
任務(wù) | 輸入 | 輸出 | 熱門數(shù)據(jù)集 |
Table QA 表問答 | 表(+文本)+問題 | 答案單元格 / 數(shù)字 / 自由文本 | WTQ, HiTab, MULTIHIERTT |
Table-to-Text 表到文本 | 表(+高亮區(qū)域) | 一段描述或摘要 | ToTTo, LogicNLG, QTSUMM |
Fact Verification 表事實(shí)核查 | 表+聲明 | Supported / Refuted / NEI | TabFact, FEVEROUS |
Text-to-SQL 自然語言轉(zhuǎn) SQL | 問題+數(shù)據(jù)庫 | SQL 查詢 | Spider, BIRD, Spider2 |
Leaderboard Construction 排行榜自動(dòng)構(gòu)建 | 論文表格 | (任務(wù), 數(shù)據(jù)集, 指標(biāo), 分?jǐn)?shù)) 四元組 | AxCell, TeLin |



4. 三大發(fā)現(xiàn):新研究機(jī)會(huì)?
4.1 任務(wù)復(fù)雜度
- 現(xiàn)有 Benchmark 大多是“把 SQL 翻譯成自然語言”再讓模型反推;
- 真正的診斷、預(yù)測(cè)、洞察類問題(圖 3)幾乎空白;
- Spider2首次引入意圖級(jí)問題:用戶說“給我一份每日關(guān)鍵銷售報(bào)告”,模型得自己猜要查哪些字段。

4.2 輸入復(fù)雜度:長表、多表、層級(jí)表 = 模型噩夢(mèng)
- MULTIHIERTT:人 83% vs 模型 <50%;
- HiTab:層級(jí)多維表,模型同樣翻車;
- 科學(xué)論文中的消融表 + 長文本,是未來絕佳試驗(yàn)田。
4.3 表示統(tǒng)一:換個(gè)格式就掉點(diǎn)
- 同一任務(wù)里,JSON ? Markdown ? LaTeX 之間沒有統(tǒng)一規(guī)范;
- 未來可以搞“格式互譯”任務(wù),讓模型見多識(shí)廣。
https://arxiv.org/pdf/2508.00217
Tabular Data Understanding with LLMs: A Survey of Recent Advances and Challenges本文轉(zhuǎn)載自??????????????????PaperAgent??

















