AI新手必看:30個術(shù)語帶你快速入門 原創(chuàng)
人工智能(AI)是繼互聯(lián)網(wǎng)之后最偉大的技術(shù)變革。然而,許多創(chuàng)業(yè)者在試圖擁抱這一變革時,卻常常陷入各種專業(yè)術(shù)語和流行詞匯的泥沼中。今天,我們就來聊聊創(chuàng)業(yè)者需要了解的30個最重要的AI術(shù)語,幫你輕松避開這些“坑”。
一、基礎(chǔ)概念
1. 大語言模型(LLM)
大語言模型是當(dāng)今大多數(shù)AI創(chuàng)新和應(yīng)用背后的技術(shù)。像ChatGPT、Claude、Gemini這些工具,都是基于LLM構(gòu)建的。簡單來說,LLM可以通過自然語言執(zhí)行各種任務(wù),比如寫文章、回答問題、生成代碼等。它們就像是一個超級智能的“助手”,只要你用自然語言告訴它需求,它就能盡力完成。
2. 提示(Prompt)
提示是傳遞給LLM的請求。與傳統(tǒng)軟件不同,LLM的提示非常靈活,你可以用無數(shù)種方式讓模型完成同一個任務(wù)。比如,你想讓LLM幫你總結(jié)一篇報告,你可以直接說“總結(jié)一下這篇報告”,也可以更詳細(xì)地說“提取這篇報告的關(guān)鍵觀點(diǎn),用簡潔的語言寫出來”,甚至可以問“這篇報告的核心內(nèi)容是什么?”不同的提示方式可能會得到不同的結(jié)果。

3. 提示工程(Prompt Engineering)
提示工程就是精心設(shè)計(jì)你的提示,以優(yōu)化任務(wù)的執(zhí)行效果。雖然LLM本身就很強(qiáng)大,但通過一些技巧,可以讓輸出結(jié)果更適合特定任務(wù)。比如,給出詳細(xì)指令、提供背景信息、使用結(jié)構(gòu)化文本、讓LLM幫助優(yōu)化提示,或者直接給出例子。這些方法都能讓LLM更好地理解你的需求,從而給出更精準(zhǔn)的結(jié)果。
4. 少樣本提示(Few-shot Prompting)
這是提示工程中的一種技巧,即在提示中包含任務(wù)的例子。比如,你想讓LLM幫你總結(jié)論文,你可以先給它幾個總結(jié)好的論文例子,這樣它就能更好地理解你的需求,生成更符合你期望的結(jié)果。這種方法特別適合那些難以用詳細(xì)指令描述的任務(wù)。

5. 上下文窗口(Context Window)
上下文窗口是LLM能夠處理的最大文本量。雖然更多的指令和上下文通常能讓LLM表現(xiàn)得更好,但它的處理能力是有限的。對于現(xiàn)代LLM來說,這個上限大約是10萬字(相當(dāng)于一本普通書的長度)。不過,像Gemini 1.5 Pro這樣的模型可以處理100萬字以上。
6. 令牌(Token)
令牌是LLM理解的文本單位。我們看到的是單詞和字符,但LLM看到的是所謂的令牌,即作為單個實(shí)體處理的字符序列。不同的模型對文本的分割方式可能不同,你可以通過一些工具來探索不同模型是如何處理文本的。

7. 推理(Inference)
推理就是使用LLM生成文本的過程。LLM生成長文本時,是一次生成一個令牌,就像你手機(jī)上的自動補(bǔ)全功能一樣。不過,LLM會不斷選擇下一個最合適的令牌,直到生成完整的回答。從成本角度看,這意味著每次生成回答時,LLM都需要運(yùn)行多次,每次生成一個令牌,這可能會導(dǎo)致成本很高。

8. 參數(shù)(Parameter)
參數(shù)是決定LLM根據(jù)輸入生成什么輸出的數(shù)字。LLM的輸入和輸出之間的關(guān)系由這些參數(shù)定義。小的LLM可能有大約10億個參數(shù),而大的LLM可能有超過1000億個參數(shù)。一般來說,參數(shù)越多,模型越“聰明”,但同時成本也越高,因?yàn)槊總€參數(shù)都對應(yīng)計(jì)算機(jī)需要執(zhí)行的操作。
9. 溫度(Temperature)
溫度是控制LLM回答隨機(jī)性的參數(shù)。LLM在生成回答時,會預(yù)測所有可能的下一個令牌的概率(通常有5萬到20萬個可能的令牌)。通過調(diào)整溫度參數(shù),我們可以改變這些概率,讓輸出更隨機(jī)(降低高概率令牌的概率,增加低概率令牌的概率)。

二、風(fēng)險與防護(hù)
10. 提示注入(Prompt Injection)
提示注入是指有人通過惡意提示讓LLM違反規(guī)則。LLM的靈活性是一把雙刃劍,惡意用戶可能會發(fā)送奇怪的提示,導(dǎo)致LLM的行為不可預(yù)測甚至產(chǎn)生不良后果。比如,可能會泄露敏感數(shù)據(jù)、生成有害或冒犯性的輸出,或者通過API執(zhí)行未經(jīng)授權(quán)的操作。
11. 護(hù)欄(Guardrails)
護(hù)欄是應(yīng)用于LLM輸入和輸出的規(guī)則,用來降低提示注入的風(fēng)險。你可以通過簡單的基于規(guī)則的過濾器來阻止惡意提示,或者使用專門的LLM來評估最終回答,確保它符合要求。

12. 幻覺(Hallucination)
幻覺是指LLM編造事實(shí)和引用的行為。雖然在創(chuàng)意寫作中這可能很有用,但在許多商業(yè)場景中卻會帶來風(fēng)險。我們可以通過良好的提示(比如要求它不要編造內(nèi)容)和護(hù)欄(比如驗(yàn)證回答的真實(shí)性)來減少幻覺。最有效的方法之一是給模型提供完成特定任務(wù)所需的事實(shí),這就是檢索增強(qiáng)生成(RAG)的作用。
13. 檢索增強(qiáng)生成(Retrieval-Augmented Generation,RAG)
RAG是一種重要的AI工程技術(shù),它可以幫助LLM根據(jù)現(xiàn)實(shí)情況生成回答,并為它們提供一個專門且易于更新的知識庫。在RAG的工作流程中,首先會根據(jù)用戶的輸入,從知識庫中檢索相關(guān)的上下文,然后LLM結(jié)合這些上下文生成回答。

14. 語義搜索(Semantic Search)
語義搜索是基于查詢的含義而不是關(guān)鍵詞進(jìn)行搜索。在RAG工作流程中,確定與用戶輸入相關(guān)的上下文非常重要,但用戶的請求通常并不是為關(guān)鍵詞搜索優(yōu)化的。因此,開發(fā)者通常會使用語義搜索,將用戶的輸入和知識庫中的每個項(xiàng)目轉(zhuǎn)換為數(shù)值表示(即向量),然后通過數(shù)學(xué)計(jì)算來確定它們之間的相似性。
15. 嵌入(Embedding)
嵌入是用于語義搜索的向量,它是一組數(shù)字,用來表示文本的含義。我們可以將它們視為定義文本在概念空間中的位置的坐標(biāo),相似的概念會聚集在一起,而不同的概念則會相隔較遠(yuǎn)。這些數(shù)字是由嵌入模型生成的,嵌入模型以文本為輸入,輸出嵌入向量。

16. 文本塊(Chunk)
文本塊是文本的一個片段。雖然嵌入對于分析文本非常強(qiáng)大,但它們也有局限性。首先,許多嵌入模型的上下文窗口較小(例如512到8192個令牌)。其次,它們表示整個文本輸入的含義,對于長序列來說可能會變得模糊。因此,通常會將源文檔分解為文本塊,并在這些文本塊上進(jìn)行檢索。
17. 向量數(shù)據(jù)庫(Vector DB)
向量數(shù)據(jù)庫是文本塊及其對應(yīng)嵌入的集合。為了提高檢索效率,每個文本塊的嵌入會提前計(jì)算并存儲在向量數(shù)據(jù)庫中。在生產(chǎn)環(huán)境中,只有用戶的查詢需要轉(zhuǎn)換為向量。如今,有許多向量數(shù)據(jù)庫解決方案,如LlamaIndex、Cohere、Qdrant、Supabase等,這些解決方案通常會處理搜索功能,因此你不需要從頭開始構(gòu)建。
三、智能系統(tǒng)與工具
18. AI代理(AI Agent)
2025年被認(rèn)為是AI代理的元年。雖然人們對“代理”的定義存在爭議,但所有現(xiàn)代定義都有兩個共同點(diǎn):首先,AI代理通常是指基于LLM的系統(tǒng);其次,該系統(tǒng)被賦予了可以執(zhí)行操作的工具。這種能力非常重要,因?yàn)樗试SLLM系統(tǒng)不僅為我們處理信息,還可以為我們解決現(xiàn)實(shí)世界的問題。
19. 主動智能(Agentic AI)
為了避免“AI代理”的爭論,大多數(shù)開發(fā)者更傾向于討論主動智能系統(tǒng)。也就是說,不要把智能看作是非黑即白的事情(有或沒有),而是看作是一個連續(xù)的譜系。換句話說,LLM系統(tǒng)可以擁有從無(即基于規(guī)則的系統(tǒng))到人類水平的智能。

20. 函數(shù)調(diào)用(Function Calling)
由于LLM只能處理令牌,它們通過函數(shù)調(diào)用來與外部世界交互。通過函數(shù)調(diào)用可以執(zhí)行一些操作,比如從天氣API獲取數(shù)據(jù)、搜索谷歌、發(fā)送電子郵件和運(yùn)行Python代碼。如今,大多數(shù)流行的模型都可以直接調(diào)用函數(shù)。例如,如果你使用OpenAI的Responses API,你可以將自定義工具的詳細(xì)信息傳遞給模型,它會在需要使用該工具時返回函數(shù)參數(shù)。
21. 模型上下文協(xié)議(Model Context Protocol,MCP)
MCP是一種將工具和上下文連接到LLM的通用方法。LLM的價值越來越依賴于它們獲取正確的上下文和使用正確的工具的能力。然而,為LLM應(yīng)用添加更多的集成會使系統(tǒng)更難構(gòu)建和維護(hù)。MCP通過為所有開發(fā)者創(chuàng)建一個開放標(biāo)準(zhǔn)來減輕這種負(fù)擔(dān)。例如,你不需要為知識庫代理實(shí)現(xiàn)一套Google Drive功能,而是可以使用預(yù)先構(gòu)建的并將其連接到你的LLM應(yīng)用。
22. 微調(diào)(Fine-tuning)
微調(diào)是通過額外的訓(xùn)練將模型適應(yīng)特定用例的過程。到目前為止,我們討論的構(gòu)建LLM系統(tǒng)的方法是在LLM周圍編寫軟件,而不改變其內(nèi)部機(jī)制。雖然這涵蓋了大多數(shù)AI工程,但有時還需要額外的定制。微調(diào)的關(guān)鍵好處是,經(jīng)過微調(diào)的小型模型通常可以勝過大型模型。

23. 蒸餾(Distillation)
蒸餾是一種特殊的微調(diào)方法。這種方法是GPT-4o-mini和Gemini 2.5 Flash等模型背后的技術(shù)。它通過從較大的教師模型(例如GPT-4o)生成數(shù)據(jù),并對較小的學(xué)生模型(例如GPT-4o-mini)進(jìn)行微調(diào)來實(shí)現(xiàn)。
24. 強(qiáng)化學(xué)習(xí)(Reinforcement Learning,RL)
強(qiáng)化學(xué)習(xí)是模型通過試錯學(xué)習(xí)的能力。在微調(diào)模型時,你通常會使用人類或LLM(或兩者)創(chuàng)建的任務(wù)示例來訓(xùn)練LLM。然而,這并不是計(jì)算機(jī)學(xué)習(xí)的唯一方式。另一種方法是讓模型生成輸出,并對好的輸出給予獎勵(對壞的輸出則不給予獎勵)。
25. 基于人類反饋的強(qiáng)化學(xué)習(xí)(Reinforcement Learning from Human Feedback,RLHF)
RLHF是一種通過強(qiáng)化學(xué)習(xí)將LLM的響應(yīng)與人類偏好對齊的方法。一個著名的應(yīng)用是創(chuàng)建InstructGPT,這是ChatGPT的前身。在這個過程中,如果模型生成的響應(yīng)符合人類偏好,就會得到獎勵。這使得模型成為一個“有幫助且無害”的助手,能夠回答用戶的各種問題。
26. 推理模型(Reasoning Models)
推理模型是一種在響應(yīng)之前可以“思考”的LLM。另一種強(qiáng)化學(xué)習(xí)的應(yīng)用是創(chuàng)建第一個推理模型,如OpenAI的o1和DeepSeek R1。對于這些模型,與其獎勵人類標(biāo)注者偏好的生成響應(yīng),不如獎勵模型正確回答數(shù)學(xué)或編程問題。推理模型(也稱為思考模型)的一個關(guān)鍵特點(diǎn)是它們會生成特殊的令牌,這些令牌定義了一個內(nèi)部獨(dú)白,允許模型在回答之前“思考”問題。
27. 測試時計(jì)算(Test-time Compute)
測試時計(jì)算是指使用LLM的成本。推理模型中的“思考”過程之所以有效,是因?yàn)樗^的測試時計(jì)算擴(kuò)展,簡單來說就是LLM處理的令牌越多,其響應(yīng)越好。這一發(fā)現(xiàn)是主動AI的關(guān)鍵驅(qū)動力之一,主動AI系統(tǒng)可以通過閱讀和生成更多令牌來執(zhí)行極其復(fù)雜的任務(wù)。
28. 訓(xùn)練時計(jì)算(Train-time Compute)
訓(xùn)練時計(jì)算是指訓(xùn)練LLM的成本。除了增加令牌外,我們還可以通過使LLM更大來提高其性能。這涉及到增加三個關(guān)鍵要素:模型大小、訓(xùn)練數(shù)據(jù)和計(jì)算能力。就像烹飪一樣,這些要素必須成比例才能獲得更好的結(jié)果。你不能只增加面粉來烤更多的面包,同樣,你也不能只增加其中一個關(guān)鍵要素來獲得更好的LLM。

29. 預(yù)訓(xùn)練(Pre-training)
預(yù)訓(xùn)練是從頭開始訓(xùn)練模型的第一步。鑒于現(xiàn)代LLM所需的海量數(shù)據(jù)(約10T令牌,相當(dāng)于約2000萬本教科書),模型是在互聯(lián)網(wǎng)上幾乎所有有用的數(shù)據(jù)上進(jìn)行訓(xùn)練的。這產(chǎn)生了一個所謂的基礎(chǔ)模型,它是互聯(lián)網(wǎng)的壓縮版本,我們可以對其進(jìn)行微調(diào)以使其有用。
30. 后訓(xùn)練(Post-training)
后訓(xùn)練是指預(yù)訓(xùn)練之后的任何訓(xùn)練。與我們通常使用的LLM不同,基礎(chǔ)模型對大多數(shù)應(yīng)用來說并不實(shí)用。然而,它們包含了廣泛且深入的世界知識,我們只需要高效地訪問這些知識。最流行的方法是通過指令調(diào)優(yōu),這是一種微調(diào)方法,我們教基礎(chǔ)模型如何遵循指令。這為人類友好地訪問基礎(chǔ)模型中存儲的大量知識提供了一個界面。
結(jié)語
大語言模型(LLM)為我們提供了一種全新的通過軟件解決問題的方式。我們通常通過提示工程、RAG和護(hù)欄在預(yù)訓(xùn)練模型的基礎(chǔ)上構(gòu)建應(yīng)用,有時我們還可以通過微調(diào)模型來滿足特定應(yīng)用的需求。今天,我們介紹了30個最常見的AI熱詞,希望能幫助你更好地理解這些概念。雖然還有很多內(nèi)容沒有涵蓋,但希望這篇文章能為你提供一些關(guān)鍵的思路。
本文轉(zhuǎn)載自??Halo咯咯?? 作者:基咯咯

















