国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

從理論到實(shí)踐:學(xué)會(huì)如何商用 DeepSeek,收藏這一篇就夠了

人工智能
近期 DeepSeek,全球聞名,大家紛紛在討論,我看過(guò)很多文章和視頻,很多說(shuō)的有點(diǎn)夸張,23 年 AI 剛來(lái)的那些內(nèi)容,又重新說(shuō)了一遍,只是把 AI 兩個(gè)字母換成了 DeepSeek。今天這期內(nèi)容,我會(huì)結(jié)合大模型的一些底層原理,從商用的視角從理論到實(shí)踐給大家介紹一下 DeepSeek。

Hi,大家好,我叫秋水,當(dāng)前專注于 AI Agent 和 AI 工作流自動(dòng)化。

近期 DeepSeek,全球聞名,大家紛紛在討論,我看過(guò)很多文章和視頻,很多說(shuō)的有點(diǎn)夸張,23 年 AI 剛來(lái)的那些內(nèi)容,又重新說(shuō)了一遍,只是把 AI 兩個(gè)字母換成了 DeepSeek。

在我看來(lái),DeepSeek 出圈的主要原因是能力強(qiáng)、價(jià)格低、開(kāi)源、可以本地部署,這個(gè)好處在于企業(yè)在 AI 方面的應(yīng)用會(huì)加速落地,我們國(guó)內(nèi)的用戶不需要那么麻煩的出海使用 ChatGPT 了。

今天這期內(nèi)容,我會(huì)結(jié)合大模型的一些底層原理,從商用的視角從理論到實(shí)踐給大家介紹一下 DeepSeek,內(nèi)容包含如下幾個(gè)部分。

第一部分,介紹大模型的運(yùn)行原理,例如什么是大模型的推理能力?它與通用大模型有何區(qū)別?通用大模型如何增強(qiáng)推理能力?具有推理能力的大模型是如何工作的?

第二部分,介紹大模型的上下文長(zhǎng)度的概念,這也是是影響大模型輸出質(zhì)量很重要的一個(gè)方面,必看。

第三部分,介紹 DeepSeek R1 的提示詞的使用技巧,例如 DeepSeek R1 萬(wàn)能提示模版,通過(guò)例子可以看到它與通用大模型 DeepSeek V3 的區(qū)別,商用場(chǎng)景下的提示詞示例,與 R1 交互影響輸出質(zhì)量的因素有哪些?

第四部分,拋磚引玉,介紹 DeepSeek 的商用場(chǎng)景都有哪些?其中開(kāi)始會(huì)介紹一下 DeepSeek R1 帶給我們的驚喜有哪些?最近經(jīng)常聽(tīng)到的強(qiáng)化學(xué)習(xí)和蒸餾是什么意思?它帶給我們的商業(yè)思考是什么?R1 蒸餾出來(lái)的小模型部署需要的硬件配置怎樣的?

如上這些內(nèi)容,在我們?cè)诖蛟煲粋€(gè) AI Agent 的過(guò)程中,也是花時(shí)間比較多的地方,這也是我們需要重點(diǎn)學(xué)習(xí)的知識(shí)。

只有你知道了大模型的一些基本底層原理、能力范圍,你才能在流程設(shè)計(jì)上去彌補(bǔ)這些能力缺陷。

記住,商用 AI Agent 需要重點(diǎn)考慮運(yùn)行成本、穩(wěn)定性、可實(shí)施性、準(zhǔn)確性,這期內(nèi)容重點(diǎn)也在講運(yùn)行成本和準(zhǔn)確性。

第一部分 大模型的運(yùn)行原理

首先,我們先簡(jiǎn)單介紹一下通用大模型和推理大模型指的是什么?

什么是通用大模型

通用大模型指的是像 DeepSeek V3、OpenAI GPT-4 之類的模型。

這類模型相當(dāng)于一個(gè)擁有強(qiáng)大知識(shí)儲(chǔ)備的研究生或博士生,他們通過(guò)大量的訓(xùn)練積累了豐富的知識(shí)和經(jīng)驗(yàn)。

什么是大模型的推理能力

推理大模型指的是 DeepSeek 的 R1、Kimi 的 k1.5 和探索版、OpenAI 的 o1、o3 等模型。

這類模型是建立在通用大模型基礎(chǔ)上,增強(qiáng)了推理、邏輯分析和決策能力。

它相當(dāng)于一位大偵探福爾摩斯,可以從蛛絲馬跡的細(xì)節(jié)中,推導(dǎo)出很多隱藏的真相和答案,幫我更好的解決問(wèn)題。

DeepSeek-R1 的推理能力是在 V3 的基礎(chǔ)上進(jìn)一步訓(xùn)練的。

AI Agent 的核心能力也是建立在大模型的推理能力之上的,推理能力越強(qiáng),AI Agent 的自主解決、處理能力就越強(qiáng)。

通用大模型和推理大模型的區(qū)別

為了更好的區(qū)分兩種大模型,我們先說(shuō)一個(gè)概念,“慢思考,快思考”,快思考對(duì)應(yīng)系統(tǒng) 1,慢思考對(duì)應(yīng)系統(tǒng) 2,這是獲過(guò)諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng)的丹尼爾·卡尼曼在其著作《思考,快與慢》中提出的一個(gè)概念。


快思考(系統(tǒng) 1)

慢思考(系統(tǒng) 2)

舉例

3+5 等于幾?

我們立刻就知道答案是 8,這就是大腦中的快思考。

127 * 206 等于多少?

我們大多數(shù)人就需要一張草稿紙,一步一步的進(jìn)行運(yùn)算,這就是慢思考。

解釋


思考過(guò)程是無(wú)意識(shí)的,而且毫不費(fèi)力,一切都是自然而然發(fā)生的。


首先,你會(huì)從記憶中重新提取讀書(shū)時(shí)所學(xué)的乘法相關(guān)知識(shí),然后加以運(yùn)用。

這個(gè)過(guò)程不容易,你得記住很多內(nèi)容,你要知道自己算到哪一步了,知道下一步該怎樣做,同時(shí)還要記住已得到的結(jié)果。

這個(gè)計(jì)算過(guò)程是腦力工作,需要刻意、努力并且有序地進(jìn)行。

特點(diǎn)

脫口而出

三思而后行

結(jié)果

不熟悉的,需要深度思考,出錯(cuò)的概率大

思考周全,出錯(cuò)概率不大

圖片

理解了“快思考,慢思考”,我們?cè)趤?lái)理解通用大模型和推理型大模型就容易多了,“快思考”對(duì)應(yīng)的就是通用大模型 ,“慢思考”對(duì)應(yīng)的就是具有推理能力的大模型。

兩者之間區(qū)別是:

  • 推理大模型的優(yōu)勢(shì)在于數(shù)學(xué)、邏輯分析、代碼生成、復(fù)雜問(wèn)題拆解;劣勢(shì)在于創(chuàng)造力,例如內(nèi)容創(chuàng)作、創(chuàng)意、想象力等。
  • 通用大模型的優(yōu)勢(shì)在于文本生成、創(chuàng)意寫作、多輪對(duì)話等通用場(chǎng)景,劣勢(shì)在于推理大模型的優(yōu)勢(shì)部分。

簡(jiǎn)單的理解,可以把推理大模型看成理科生,通用大模型看成文科生。

圖片

通用大模型如何提升推理能力

接下來(lái),我們?cè)倏纯赐ㄓ么竽P褪侨绾翁嵘评砟芰Φ摹?/span>

思維鏈

一種方式是基于思維鏈(Chain of Thought, CoT),就是讓大模型將一個(gè)復(fù)雜問(wèn)題拆解為一個(gè)個(gè)的子問(wèn)題,再依次解決。

簡(jiǎn)單來(lái)說(shuō),就是在給大模型的提示中明確告訴它應(yīng)該怎么去思考,或者在提示詞后面,增加“請(qǐng)一步一步思考”,就可以“喚醒”通用大模型的推理能力,這種推理能力不是大模型的自身帶的,而是我們通過(guò)引導(dǎo)激發(fā)出來(lái)的。

我們用一個(gè)翻譯的例子進(jìn)一步說(shuō)明一下。

如下圖片為在提示詞的最后追加了“請(qǐng)一步一步思考”。

可以看到大模型自己將翻譯過(guò)程自動(dòng)分成多個(gè)步驟,每一個(gè)步驟都是一次思考,最終輸出翻譯結(jié)果。

圖片

如下圖片為我們?cè)谔崾驹~中,規(guī)定了大模型的翻譯步驟。

可以看到大模型按照我們規(guī)定的步驟進(jìn)行思考,最后輸出翻譯結(jié)果。

圖片

AI 工作流編排

另外一種方式,就是 AI 工作流編排,它將復(fù)雜的任務(wù)分解為一個(gè)個(gè)有序的步驟,從而解決一些復(fù)雜問(wèn)題,它本質(zhì)上是思維鏈的一種應(yīng)用。

例如 Coze 、Dify 中我們用到的工作流,流程中的每個(gè)節(jié)點(diǎn)都可以被視為思維鏈中的一個(gè)“思考步驟”。

如下為在 Coze 中編排的一個(gè)文章總結(jié)、保存到飛書(shū)中的工作流,在整個(gè)流程中,可以調(diào)用大模型、可以對(duì)接第三方平臺(tái),可以執(zhí)行代碼等等。

這種方式擴(kuò)寬了大模型解決問(wèn)題的能力邊界。

圖片

以上兩種方式都是通過(guò)外部手段提升通用大模型的推理能力,這種后期的人為提升,肯定也是因人而異,有的人會(huì)寫提示詞,有的人會(huì)設(shè)計(jì)流程,有的人啥也不會(huì)。

所以我們更希望能利用大模型自身來(lái)去解決復(fù)雜問(wèn)題,我們不需要寫復(fù)雜的提示詞,只需要提出我們的需求,這個(gè)時(shí)候大模型的推理能力應(yīng)運(yùn)而生。

大模型的推理能力如何工作的

2024 年 9 月份 OpenAI 公司發(fā)布的 o1 是第一款具有推理能力的模型。

2025 年 1 月 20 日,DeepSeek 正式發(fā)布 DeepSeek-R1 推理能力模型,由于開(kāi)源,且性價(jià)比相當(dāng)高,馬上火爆出圈。

這種推理能力就是將前面提到的思維鏈和工作流編排(目前只包含提示詞,不包含工具調(diào)用等)嵌入到模型自身,使得模型在生成最終答案前能夠進(jìn)行邏輯推理,考慮多種方案,然后選擇最優(yōu)方案,這種運(yùn)行方式也是我們前面提到的“慢思考”。

下面的圖片是 DeepSeek-R1 模型的內(nèi)部推理過(guò)程,從圖片中我們可以看到三輪推理過(guò)程中,期間每次都會(huì)把上一輪的問(wèn)題和回答傳到下一輪,用于后面借鑒,幾輪下來(lái)后,Token 就會(huì)越來(lái)越大。

最終需要幾輪,要看模型在哪一輪能發(fā)現(xiàn)最優(yōu)解決方案,則推理成功,輸出結(jié)果。

圖片

從整個(gè)推理過(guò)程中,我們可以發(fā)現(xiàn)幾個(gè)現(xiàn)象:

  1. 推理時(shí)間長(zhǎng),需要用戶等待幾秒、幾十秒、甚至幾分鐘,那么在商用的時(shí)候就需要從用戶的角度去考慮這一點(diǎn),讓客戶干等著?還是讓它異步執(zhí)行,執(zhí)行完后給用戶通知?
  2. 過(guò)程會(huì)產(chǎn)生大量的 Token,成本就會(huì)高,它可能是通用大模型的幾十倍甚至上百倍,那么商用的時(shí)候,我們需要著重關(guān)注 Token 的消耗情況,此外是用本地部署?還是用云端?需要綜合考量。
  3. 不是所有的場(chǎng)景都用推理模型,在一個(gè) AI Agent 中應(yīng)該根據(jù)場(chǎng)景特點(diǎn),混合使用大模型。

如下圖是在 DeepSeek R1 上運(yùn)行剛才翻譯的例子,可以看到思考過(guò)程輸出的內(nèi)容很多,在商用調(diào)用 API 接口的時(shí)候,這些內(nèi)容都會(huì)消耗 Token,計(jì)算為費(fèi)用。

我們可以對(duì)比一下,三種形式的翻譯,結(jié)果基本一樣,采用推理模型雖然提示詞簡(jiǎn)單,但是過(guò)程消耗的 Token 太多了,所以這種場(chǎng)景就可以不使用推理大模型。

圖片

我們?cè)倥e一個(gè)極端的例子,“1+1 等于幾”,來(lái)看看通用大模型和推理大模型的輸出情況,可以更加直觀的可以看到一個(gè)簡(jiǎn)單的問(wèn)題使用推理大模型,消耗的 Token 是通用大模型的好多倍。

這相當(dāng)于問(wèn)大偵探福爾摩斯一個(gè)簡(jiǎn)單的問(wèn)題,福爾摩斯心里想問(wèn)到我這里的問(wèn)題能是簡(jiǎn)單的問(wèn)題嗎,然后腦子里就開(kāi)始飛速的轉(zhuǎn)起來(lái),這里推理一下,那邊在推理一下,結(jié)果到最后一看,原來(lái)謎底就在謎面上啊,費(fèi)了那么多腦細(xì)胞。

圖片圖片

第二部分 大模型的上下文長(zhǎng)度的概念

說(shuō)完大模型的運(yùn)行原理,接下來(lái),我們?cè)谝黄鹂匆粋€(gè)概念“上下文”。

這個(gè)知識(shí)點(diǎn)非常重要,重點(diǎn)中的重點(diǎn),大家一定要搞清楚這個(gè)概念,很多朋友和大模型聊一會(huì)發(fā)現(xiàn)輸出的內(nèi)容越來(lái)越差,大概率是因?yàn)椴磺宄@個(gè)知識(shí)點(diǎn)。

這個(gè)也是大模型的能力邊界中的一個(gè)知識(shí)點(diǎn),知道能力邊界后,我們?cè)陂_(kāi)發(fā) AI Agent 的時(shí)候,在與大模型交互的時(shí)候,才知道采取何種策略來(lái)解決。

上下文分為上下文長(zhǎng)度(Context Length)和上下文窗口(Context Window)。

上下文長(zhǎng)度,決定了一次性輸出的字?jǐn)?shù)

上下文長(zhǎng)度(Context Length), 決定了大模型一次性可以輸出文字的數(shù)量。

它是我們與大模型單次交互中可以處理的最大 Token 數(shù)量,這個(gè)數(shù)量包含我們的輸入和大模型的輸出。

這就意味著我們?cè)谳斎胩釂?wèn)時(shí)的提示詞越多,那么大模型返回內(nèi)容的 Token 數(shù)量就越少。

注意,有的大模型沒(méi)有注明上下文長(zhǎng)度,例如 DeepSeek V3 和 R1 的官方文檔中約定了一次最大輸出長(zhǎng)度為 8K Token,即大約 4000 個(gè)漢字。

圖片

簡(jiǎn)單解釋一下 Token,它是大模型用來(lái)表示自然語(yǔ)言的基本單位,也是計(jì)費(fèi)單位,可以直觀的理解為“字”或“詞”,通常 1 個(gè)中文詞語(yǔ)、1 個(gè)英文單詞、1 個(gè)數(shù)字或 1 個(gè)符號(hào)計(jì)為 1 個(gè) Token。

不同模型的 Token 和 字?jǐn)?shù)換算情況不一樣,如下是 DeepSeek 的官方換算規(guī)則:

  • 1 個(gè)英文字符 ≈ 0.3 個(gè) Token。
  • 1 個(gè)中文字符 ≈ 0.6 個(gè) Token。

還有一個(gè)問(wèn)題,我們需要注意的是,上下文長(zhǎng)度中的輸入不僅僅包含我們輸入的提示詞,還包含聊天應(yīng)用底層的系統(tǒng)提示詞和我們不知道的其他輸入,我們上傳的文檔,互聯(lián)網(wǎng)搜索的內(nèi)容等等。

有的朋友可能又有疑問(wèn)了,我上傳的文檔相當(dāng)之大,已經(jīng)超出了上下文長(zhǎng)度了,為什么第一次交互的時(shí)候,輸出的結(jié)果還不錯(cuò)呢?那可能是聊天應(yīng)用端做了優(yōu)化處理,例如先將文檔讀取、識(shí)別、總結(jié)后,然后連同我們寫的提示詞一起發(fā)給大模型,具體大家需要親自測(cè)試。

如果我們發(fā)現(xiàn)大模型輸出的內(nèi)容本應(yīng)該很多,但是卻很少,就需要看看是不是我們一次性輸入的內(nèi)容是不是太多了,或者一次性讓大模型輸出不同維度的內(nèi)容太多了。

上下文窗口,決定了一次會(huì)話中可以記憶多少內(nèi)容

上下文窗口(Context Window),決定了一次會(huì)話中可以記憶多少內(nèi)容。

就是在大模型回復(fù)時(shí)可以參考前面內(nèi)容的范圍,例如在一個(gè)會(huì)話里,你已經(jīng)和大模型互動(dòng)了 10 次,在第 11 次互動(dòng)時(shí),大模型可以參考前面 10 次互動(dòng)的內(nèi)容,這樣有助于大模型回復(fù)的時(shí)候保持與前面的內(nèi)容保持一致性。

例如我們?cè)僮尨竽P蛶臀覀儗?duì)數(shù)據(jù)進(jìn)行分析,前面幾輪互動(dòng)中,我們發(fā)給大模型一些數(shù)據(jù),那么后續(xù)大模型回復(fù)的時(shí)候,就會(huì)依據(jù)這些數(shù)據(jù)進(jìn)行回復(fù)。

但是如果幾輪互動(dòng)后,輸入輸出的總長(zhǎng)度超過(guò)了上下文窗口的總長(zhǎng)度,那么最早的數(shù)據(jù),大模型就會(huì)忘記,會(huì)導(dǎo)致后面的數(shù)據(jù)分析沒(méi)有之前的數(shù)據(jù)作為依托,出現(xiàn)胡說(shuō)八道的情況。

因此如果發(fā)現(xiàn)與大模型幾輪互動(dòng)后,發(fā)現(xiàn)它輸出的內(nèi)容越來(lái)越不靠譜,那么就需要考慮一下是否超出了上下文窗口的總長(zhǎng)度。

這種情況下,就需要和大模型在多個(gè)會(huì)話中交互,解決同一個(gè)問(wèn)題。

在 DeepSeek V3 和 R1 的官方文檔中約定了上下文窗口長(zhǎng)度為 64K Token,即大約 2-3 萬(wàn)個(gè)漢字。

我們大家要注意每家大模型對(duì)于上下文長(zhǎng)度、上下文窗口長(zhǎng)度的定義不一樣,DeepSeeK 定義了最大輸出長(zhǎng)度和上下文長(zhǎng)度,這里的上下文長(zhǎng)度就是上下文窗口長(zhǎng)度。

需要我們?nèi)ス俜娇磳?duì)應(yīng)的解釋。

小結(jié)一下:

上下文長(zhǎng)度和上下文窗口越大,大模型對(duì)我們提出的問(wèn)題理解的就越深刻、越精準(zhǔn),這相當(dāng)于腦容量的大小。

  • 總結(jié) 500 頁(yè)書(shū)為兩頁(yè)時(shí),大模型需理解書(shū)的結(jié)構(gòu)和核心觀點(diǎn),較大的上下文有助于更好地把握內(nèi)容。
  • 創(chuàng)作 3 萬(wàn)字小說(shuō)時(shí),大模型需理解小說(shuō)結(jié)構(gòu)和情節(jié)發(fā)展,較大的上下文可幫助其把握故事走向。
  • 在 AI 客服應(yīng)用中,客戶與 AI 機(jī)器人可能長(zhǎng)時(shí)間對(duì)話,較大的上下文能讓機(jī)器人記住早期聊天記錄。
  • 在代碼編寫中,大模型需理解代碼上下文,如變量定義、函數(shù)調(diào)用等,較大的上下文可幫助其理解代碼結(jié)構(gòu),一次性生成整個(gè)項(xiàng)目代碼。
  • 在 RAG 場(chǎng)景中,模型需結(jié)合外部文檔或搜索數(shù)據(jù)生成回答,較大的上下文有助于理解檢索內(nèi)容并結(jié)合問(wèn)題生成準(zhǔn)確回答。

圖片

 第三部分 DeepSeek R1 的提示詞的使用技巧

接下來(lái)我們開(kāi)始聊 R1 的提示詞使用技巧。

DeepSeek V3 提示詞生成器、模版

在講 DeepSeek R1 之前,我們先看看用大模型 DeepSeek V3 的提示詞,V3 的提示詞跟其他大模型的差不多,官方網(wǎng)站也有最佳實(shí)踐的例子,其中一個(gè)例子“模型提示詞生成”,我們可以用它來(lái)生成你需要的提示詞,然后在進(jìn)行調(diào)整。

圖片

DeepSeek 官方提示詞生成器:

你是一位大模型提示詞生成專家,請(qǐng)根據(jù)用戶的需求編寫一個(gè)智能助手的提示詞,來(lái)指導(dǎo)大模型進(jìn)行內(nèi)容生成,要求:
1. 以 Markdown 格式輸出
2. 貼合用戶需求,描述智能助手的定位、能力、知識(shí)儲(chǔ)備
3. 提示詞應(yīng)清晰、精確、易于理解,在保持質(zhì)量的同時(shí),盡可能簡(jiǎn)潔
4. 只輸出提示詞,不要輸出多余解釋

請(qǐng)幫我生成一個(gè)“Linux 助手”的提示詞

DeepSeek R1 萬(wàn)能提示詞模版

接著我們看一下 DeepSeek R1 的萬(wàn)能提示詞模版。

背景 + 需求 + 【結(jié)構(gòu)化提問(wèn) + 輸出風(fēng)格 】

注:

1、背景和目的是必須的,結(jié)構(gòu)化提問(wèn)、輸出風(fēng)格可以根據(jù)實(shí)際情況進(jìn)行選擇。

2、提示詞簡(jiǎn)潔,無(wú)廢話。

3、結(jié)構(gòu)化提問(wèn)、輸出風(fēng)格的作用是限定大模型的推理方向,但在一定程度上也會(huì)降低大模型的思考維度。

背景

簡(jiǎn)潔的說(shuō)明你的背景,可以讓 AI 理解你的真實(shí)需求,背景可以是你自身的角色或者知識(shí)水平,也可以是你的業(yè)務(wù)場(chǎng)景,也可以是一些限制條件。

可以按照「領(lǐng)域 + 知識(shí)水平 + 限制」的結(jié)構(gòu)說(shuō)明。

例如:"(領(lǐng)域)我要開(kāi)發(fā)一款管理自媒體的 AI Agent,(知識(shí)水平)我不會(huì)編程,(限制)需要在 1 個(gè)月內(nèi)實(shí)現(xiàn)熱點(diǎn)素材自動(dòng)化采集,(問(wèn)題)請(qǐng)問(wèn)應(yīng)該選擇哪個(gè)無(wú)代碼開(kāi)源框架?"

需求

明確你的核心問(wèn)題,避免模糊提問(wèn)。

例如:

錯(cuò)誤示例:“請(qǐng)幫我推薦一個(gè)采集框架”。

正確示例:“請(qǐng)幫我推薦一款不需要寫代碼,通過(guò)配置就可以采集數(shù)據(jù)的開(kāi)源框架”。

結(jié)構(gòu)化提問(wèn)

結(jié)構(gòu)化提問(wèn)的方式,可以讓大模型有重點(diǎn)的按照指定順序輸出。

例如:分析市場(chǎng)時(shí),可以在提示詞中加入結(jié)構(gòu)化的提問(wèn):“第一步:分析挖掘機(jī)市場(chǎng)的主要競(jìng)爭(zhēng)者;第二步:列出每個(gè)競(jìng)爭(zhēng)者的市場(chǎng)份額和產(chǎn)品特點(diǎn);第三步:預(yù)測(cè)市場(chǎng)未來(lái)的趨勢(shì)。”

輸出風(fēng)格

輸出風(fēng)格一方面可以對(duì)技術(shù)類內(nèi)容,讓其通俗易懂的講解,或者模仿某個(gè)人的風(fēng)格寫作,例如提示詞中加入“通俗易懂”、“講人話”、“用脫口秀風(fēng)格”。

例如:“我是技術(shù)小白,給我講一下什么大模型?講人話”。

圖片

通用大模型和推理大模型在提示詞方面區(qū)別

接著我們看一下通用大模型和推理大模型在提示詞方面的區(qū)別。

通過(guò)示例對(duì)比,我們可以看到推理模型的提示詞我們盡可能的要寫的簡(jiǎn)單,寫的過(guò)多會(huì)影響大模型的各個(gè)維度的思考。

但是通用大模型則不一樣,它擁有豐富的知識(shí)儲(chǔ)備,但是不會(huì)進(jìn)行“慢思考”,所以我們和它交流的時(shí)候,我們需要給它思考的步驟,即思維鏈。

圖片

 商用場(chǎng)景提示詞示例

接下來(lái),我們聊一下一些商用使用場(chǎng)景,可以分為讓大模型幫我們做決策、做分析、想創(chuàng)意、驗(yàn)證方案、規(guī)劃執(zhí)行策略。

如下示例為拋磚引玉,具體還是需要結(jié)合自身的需求來(lái)撰寫。

每一個(gè)場(chǎng)景模版的第一部分是必須要寫的,后面幾部分是為了限定大模型的思考方向、輸出形式。

具體的,可以兩者都發(fā)送給大模型,看看哪個(gè)回答效果更好。

做決策

介紹:讓 AI 從多個(gè)方案中選擇一個(gè)最好的方案。

模版:目標(biāo)(想達(dá)成什么)+ 選項(xiàng)(有哪些選擇)+ 評(píng)估標(biāo)準(zhǔn)(怎么判斷好壞)。

為了加大企業(yè)在自媒體平臺(tái)的傳播力度,促進(jìn)銷售,現(xiàn)有兩種方案:

1、投放廣告 2、加大原創(chuàng)內(nèi)容制作

請(qǐng)根據(jù) AARRR 增長(zhǎng)漏斗模型,對(duì)比 6 個(gè)月內(nèi)的數(shù)據(jù)(附件 Excel),推薦最優(yōu)方案。

做分析

介紹:提供數(shù)據(jù)給 AI,讓 AI 挖掘數(shù)據(jù)背后的規(guī)律和原因。

模版:?jiǎn)栴}(想知道什么)+ 數(shù)據(jù)/信息(手頭有什么資料)+ 分析方法(怎么挖)。

分析公司過(guò)去一年的自媒體運(yùn)營(yíng)數(shù)據(jù)(附 Excel),說(shuō)明:

1、內(nèi)容發(fā)布頻率與粉絲增長(zhǎng)的關(guān)聯(lián)性;

2、使用 ARIMA 模型對(duì)下一年度的運(yùn)營(yíng)方式進(jìn)行預(yù)測(cè),并詳細(xì)解釋所選模型的參數(shù)選擇依據(jù)。

想創(chuàng)意

介紹:讓 AI 為企業(yè)的營(yíng)銷、宣傳等提供創(chuàng)新的、腦洞大開(kāi)的內(nèi)容。

模版:主題(搞什么)+ 風(fēng)格/約束(有什么要求)+ 創(chuàng)新方向(怎么與眾不同)。

設(shè)計(jì)一套自媒體內(nèi)容創(chuàng)新方案,要求:

1、提升內(nèi)容的吸引力和傳播力;

2、結(jié)合熱點(diǎn)話題和用戶興趣;

3、提供兩種不同內(nèi)容形式的創(chuàng)意方案說(shuō)明。

驗(yàn)證方案

介紹:提供方案給 AI ,讓 AI 協(xié)助驗(yàn)證方案的可行性、可落地性或者風(fēng)險(xiǎn)點(diǎn)等。

模版:結(jié)論/方案(驗(yàn)證什么)+ 驗(yàn)證方法(怎么檢查)+ 風(fēng)險(xiǎn)點(diǎn)(可能哪里出問(wèn)題)。

A 形式標(biāo)題優(yōu)于 B 形式標(biāo)題,請(qǐng)驗(yàn)證:

1、兩種形式數(shù)據(jù)指標(biāo) 2、通過(guò) A/B 測(cè)試

如何執(zhí)行

介紹:給出目標(biāo),讓 AI 協(xié)助輸出執(zhí)行過(guò)程,例如寫代碼、畫(huà)流程圖。

模版:任務(wù)(做什么)+ 步驟約束(怎么操作)+ 輸出格式(結(jié)果長(zhǎng)啥樣)。

梳理<自媒體編輯>這個(gè)角色的工作流程,要求: 1、標(biāo)記哪些可以由 AI 來(lái)協(xié)助,哪些我來(lái)去做。 2、以表格的形式(工作內(nèi)容/AI 協(xié)助/人工來(lái)做)輸出。

DeepSeek R1 寫提示詞的注意事項(xiàng)

  • 無(wú)須提供參考例子,否則 R1 性能會(huì)出現(xiàn)明顯下降。
  • 復(fù)雜角色扮演以及 JSON 輸出,R1 的表現(xiàn)不及通用大模型 DeepSeek V3。
  • 避免一次會(huì)話中與 R1 多輪交互,多輪交互后其表現(xiàn)不如 V3。
  • 不要用思維鏈提示,例如一步步思考等提示詞。
  • 概念解釋不需要了,R1 會(huì)自己搞明白,例如提示詞中用到“金字塔原理”,無(wú)需對(duì)其解釋。
  • R1 和 V3 的單次輸出字?jǐn)?shù)在 2000 - 4000 個(gè)漢字,如果讓大模型一次性輸出的內(nèi)容太多,可以分多次輸出。
  • R1 和 V3 一次會(huì)話的總字?jǐn)?shù)在 2 萬(wàn) - 3 萬(wàn)個(gè)漢字,上傳附件時(shí)需要注意,否則前面的內(nèi)容 AI 會(huì)忘記。
  • 原先的結(jié)構(gòu)化提示詞依然有用,但主要集中在背景和需求描述上,但需要簡(jiǎn)潔明了。
  • 背景、需求描述上不要過(guò)于籠統(tǒng),也不要過(guò)度復(fù)雜,缺少關(guān)鍵細(xì)節(jié)會(huì)讓結(jié)果偏離預(yù)期,要求太多則會(huì)讓 R1 難以抓住重點(diǎn),或者限制它的自由推理空間。
  • 初次輸出不滿意不要放棄,一方面可以要求 AI 對(duì)輸出的內(nèi)容自我評(píng)估,提供改進(jìn)建議,另外一方面我們可以在后續(xù)提問(wèn)指導(dǎo) AI 進(jìn)行改進(jìn)。

什么是 Temperature?

有的朋友可能不知道 Temperature 參數(shù)是起什么作用?

Temperature 設(shè)置的值越高,AI 輸出的內(nèi)容更有創(chuàng)意,更加天馬行空,例如詩(shī)歌創(chuàng)作。

反之,輸出的內(nèi)容更加嚴(yán)謹(jǐn),例如代碼生成、數(shù)學(xué)解題。

在 DeepSeek 官方聊天窗口,Temperature 參數(shù)默認(rèn)設(shè)置為 1.0,但在其他平臺(tái)上是可以配置這個(gè)參數(shù),如下為官方提供的建議。

場(chǎng)景

溫度

代碼生成/數(shù)學(xué)解題

0

數(shù)據(jù)抽取/分析

1

通用對(duì)話

1.3

翻譯

1.3

創(chuàng)意類寫作/詩(shī)歌創(chuàng)作

1.5

小結(jié)一下

DeepSeek 官方對(duì) R1 的能力描述,它在數(shù)學(xué)、代碼、自然語(yǔ)言推理等任務(wù)上表現(xiàn)很不錯(cuò),因此不要把它當(dāng)成萬(wàn)能的 大模型。

DeepSeek-R1 在后訓(xùn)練階段大規(guī)模使用了強(qiáng)化學(xué)習(xí)技術(shù),在僅有極少標(biāo)注數(shù)據(jù)的情況下,極大提升了模型推理能力。在數(shù)學(xué)、代碼、自然語(yǔ)言推理等任務(wù)上,性能比肩 OpenAI o1 正式版。

- 官方技術(shù)白皮書(shū)

第四部分 DeepSeek R1 的商用場(chǎng)景

接下來(lái),我們聊一下 DeepSeek R1 的商用場(chǎng)景。

DeepSeek R1 帶給我們的驚喜

在開(kāi)始聊商用場(chǎng)景之前,我們先看看 DeepSeek 帶給我們哪些驚喜。

  • 推理能力強(qiáng):DeepSeek R1 的性能優(yōu)于其他推理模型,在某些測(cè)試中,它與 OpenAI 的 01 模型表現(xiàn)相當(dāng),有時(shí)甚至更好。
  • 性價(jià)比高:DeepSeek R1 的定價(jià)非常便宜,相比較性能相同的推理模型,價(jià)格便宜幾十倍。
  • 多種版本可選:R1 提供多種不同大小推理模型,我們可以根據(jù)自己的計(jì)算資源選擇合適的版本。
  • 開(kāi)源免費(fèi):DeepSeek R1 是一個(gè)完全開(kāi)源的模型,采用 MIT 許可證,免費(fèi)使用,且可以用于商業(yè)。
  • 降低提示詞使用門檻:R1 自身會(huì)一步步的去推理解決問(wèn)題,這樣就降低了我們使用 AI 的門檻。
  • 展示思考過(guò)程:DeepSeek-R1 會(huì)向我們展示了思考過(guò)程,如果你想學(xué)習(xí)某件事,能夠看到大型語(yǔ)言模型的思考過(guò)程是非常重要的。

圖片

這些驚喜極大推動(dòng) AI Agent 商用場(chǎng)景的落地以及中小企業(yè)的在 AI 應(yīng)用上的普及。

接下來(lái)我們?cè)倭囊幌聝蓚€(gè)技術(shù),我們同樣也會(huì)得到一些驚喜。

什么是強(qiáng)化學(xué)習(xí)

先說(shuō)一下強(qiáng)化學(xué)習(xí)。

DeepSeek-R1 技術(shù)論文中,講到直接使用強(qiáng)化學(xué)習(xí)。

簡(jiǎn)單的說(shuō),強(qiáng)化學(xué)習(xí)就是通過(guò)不斷“試錯(cuò)”來(lái)找到最好解決問(wèn)題的辦法。

想象一下一個(gè)小孩剛學(xué)著站立,它開(kāi)始不知道如何站立,會(huì)嘗試各種方法,最終找到了站的穩(wěn)的方法。

這意味著,當(dāng)你問(wèn) DeepSeek-R1 一個(gè)問(wèn)題時(shí),它會(huì)多次思考解決方案。

它會(huì)先提出答案,然后重新評(píng)估其答案,思考這個(gè)答案可能出錯(cuò)的地方,再想一個(gè)更優(yōu)的答案,這樣一步步的思考、完善答案,直到大模型認(rèn)為最好的一個(gè)答案,然后輸出給我們。

這也是為什么與推理模型進(jìn)行交互的時(shí)候,提示詞需要說(shuō)的簡(jiǎn)練,說(shuō)的過(guò)于復(fù)雜,會(huì)限制推理大模型的思考發(fā)揮。

什么是“蒸餾”

再說(shuō)一下“蒸餾”

蒸餾就是讓大模型教小模型本事,簡(jiǎn)單的理解就是老師把自己某些方面的能力移植到學(xué)生身上的一個(gè)過(guò)程。

這樣小模型的能力會(huì)變強(qiáng),資源耗用方面不會(huì)提升太大。

具體過(guò)程就是:

首先,需要一個(gè)能力強(qiáng)的大模型,例如 DeepSeek R1。

其次,讓 DeepSeek R1 生成用于訓(xùn)練小模型的數(shù)據(jù)樣本(問(wèn)題、答案、思維鏈的思考過(guò)程),這些數(shù)據(jù)樣本側(cè)重訓(xùn)練推理能力的。

然后,在小模型 Qwen-7B 上用數(shù)據(jù)樣本進(jìn)行訓(xùn)練。

最后,得到新的小模型 Qwen-7B 在推理能力上會(huì)大大提高。

這意味著,小模型也可以擁有大模型的能力,降低了模型運(yùn)行成本,為商業(yè) AI 應(yīng)用的發(fā)展提供基礎(chǔ)。

因此在未來(lái)我們做一個(gè) AI Agent 的場(chǎng)景,是可以混合使用大模型、小模型的。

圖片

DeepSeek R1 蒸餾出來(lái)的小模型運(yùn)行硬件配置

接下來(lái),我們看一下蒸餾出來(lái)的小模型的運(yùn)行硬件配置。

這個(gè)表格來(lái)自網(wǎng)絡(luò),僅供參考,大家也可以問(wèn) Kimi,我個(gè)人不建議中小型企業(yè)獨(dú)立購(gòu)買硬件部署,會(huì)增加很多額外的成本,例如服務(wù)器的運(yùn)維、模型自身升級(jí)的運(yùn)維,建議還是用 API 接口,或者云服務(wù)。

圖片

拋磚引玉,商用場(chǎng)景應(yīng)用

最后我們說(shuō)一下商用場(chǎng)景,AI 從 2023 年到目前,大部分集中在寫作、出圖、出視頻方面,但是大面積的在企業(yè)業(yè)務(wù)流程上使用還是少數(shù),主要因素還是是 Token 消耗的成本過(guò)高,大模型的幻覺(jué)。

OpenAI 的 o 系統(tǒng)面世,雖然將大模型的幻覺(jué)進(jìn)行了改進(jìn),但是其高昂的費(fèi)用,在企業(yè)商用上還是一筆不小的開(kāi)銷。

但是 DeepSeek R1 的面世,在提升大模型能力的前提下,價(jià)格一下子降下了幾十倍,我們也可以不用云端 API,可以自己獨(dú)立部署,這對(duì)企業(yè)來(lái)說(shuō),是一個(gè)極好的消息。

下面是我搜集的大家都在用 DeepSeek 在哪些商業(yè)場(chǎng)景上開(kāi)始應(yīng)用了。

內(nèi)容生成與營(yíng)銷

使用 DeepSeek R1,可以撰寫出吸引眼球的廣告文案,并生成極具吸引力的社交媒體內(nèi)容。此外,它還能根據(jù)關(guān)鍵詞進(jìn)行 SEO 優(yōu)化。

改進(jìn)客戶服務(wù)

DeepSeek R1 驅(qū)動(dòng)的聊天機(jī)器人能響應(yīng)常見(jiàn)客戶咨詢,協(xié)助安排預(yù)約,甚至提供基礎(chǔ)的咨詢,從而提升客戶滿意度。

軟件開(kāi)發(fā)

在軟件開(kāi)發(fā)中,DeepSeek R1 可以協(xié)助我們進(jìn)行代碼開(kāi)發(fā)和調(diào)試。并且能夠自動(dòng)化生成技術(shù)文檔,大大提高了開(kāi)發(fā)人員的效率。

財(cái)務(wù)與數(shù)據(jù)分析

在金融領(lǐng)域,DeepSeek R1 提供預(yù)測(cè)分析功能。同時(shí),憑借其強(qiáng)大的數(shù)據(jù)分析能力,它還能有效進(jìn)行風(fēng)險(xiǎn)評(píng)估。

合同審閱

想想我們審閱合同所花費(fèi)的時(shí)間。DeepSeek R1 能夠分析這些文檔,提取關(guān)鍵條款,識(shí)別潛在風(fēng)險(xiǎn),并提出改進(jìn)建議。

律師助手

DeepSeek R1 可自動(dòng)化起草訴狀、合同和證據(jù)請(qǐng)求等標(biāo)準(zhǔn)化法律文件,節(jié)省時(shí)間、降低錯(cuò)誤。

圖片

RPA 操控瀏覽器

最后就是給大家演示使用 browser-use 如何寫一個(gè)指令,讓瀏覽器自動(dòng)執(zhí)行,DeepSeek 沒(méi)有出來(lái)之前,browser-use 執(zhí)行一次簡(jiǎn)單的命令也需要消耗大量的 Token,現(xiàn)在雖然還有些缺陷,隨著推理大模型能力的不斷提升、Token 成本的進(jìn)一步降低,相信過(guò)不了多久就可以商用了。

責(zé)任編輯:龐桂玉 來(lái)源: 我叫秋水
相關(guān)推薦

2021-11-24 22:42:15

WorkManagerAPI

2020-03-09 17:28:51

NoSQLMongoDB數(shù)據(jù)庫(kù)

2023-04-24 08:00:00

ES集群容器

2020-08-03 10:00:11

前端登錄服務(wù)器

2023-10-17 08:15:28

API前后端分離

2020-02-18 16:20:03

Redis ANSI C語(yǔ)言日志型

2023-02-10 09:04:27

2020-05-14 16:35:21

Kubernetes網(wǎng)絡(luò)策略DNS

2022-06-20 09:01:23

Git插件項(xiàng)目

2022-08-01 11:33:09

用戶分析標(biāo)簽策略

2019-08-13 15:36:57

限流算法令牌桶

2021-04-08 07:37:39

隊(duì)列數(shù)據(jù)結(jié)構(gòu)算法

2023-09-11 08:13:03

分布式跟蹤工具

2020-07-03 08:21:57

Java集合框架

2020-11-06 10:01:06

Nginx

2021-05-14 23:31:50

大數(shù)據(jù)計(jì)算機(jī)開(kāi)發(fā)

2018-05-22 08:24:50

PythonPyMongoMongoDB

2024-04-08 10:01:33

2019-05-14 09:31:16

架構(gòu)整潔軟件編程范式

2024-09-23 08:00:00

消息隊(duì)列MQ分布式系統(tǒng)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

国产一区二区色| 在线观看免费成人av| 亚洲一区 二区| 日韩一区二区免费电影| www黄色av| 国产一区二区在线观看免费| 色综合色综合色综合| 在线精品高清中文字幕| 一区二区三区四区五区精品| 欧美老女人另类| 国产不卡av一区二区| 欧美日韩视频免费看| 久久91精品| 奇米888四色在线精品| 久久五月婷婷丁香社区| 午夜久久久久久| 亚洲精品成人a8198a| 久草精品在线| 亚洲一级黄色片| 国产a级片网站| 成人国产激情在线| 图片区亚洲欧美小说区| 国内国产精品久久| 日韩欧美在线播放| 亚洲欧美中文字幕在线一区| 日本亚洲欧美三级| 99999色| 神马午夜伦理不卡| 久久免费精品国产久精品久久久久| 欧美二区乱c少妇| 国产又粗又长又爽视频| 国产免费久久| 精品99一区二区三区| 狠狠色狠狠色综合人人| 欧美自拍电影| 国产精品久久久久久久久久免费看| 欧美不卡在线一区二区三区| 99热国产在线| 日韩一级毛片| 亚洲一区二区三区乱码aⅴ| 伊人成综合网yiren22| 色综合视频网站| 一级做a爰片久久| 新狼窝色av性久久久久久| 国产日韩欧美精品在线观看| 美女高潮在线观看| 成人性生交大片免费看中文| 日韩国产中文字幕| www.69av| 欧美日韩在线播放视频| 欧美亚洲综合色| 欧洲精品在线视频| jizzjizz中文| 色妹子一区二区| 欧美6一10sex性hd| 久久精品国产久精国产一老狼| 日韩一区二区三区高清在线观看| 国产不卡视频在线| 久久亚洲电影| 欧美日韩第二页| 一区二区三区不卡视频在线观看| 天堂av在线播放| 日韩免费高清av| 涩爱av色老久久精品偷偷鲁| 国产精国产精品| 日韩精品一级中文字幕精品视频免费观看 | 999久久久国产精品| 久久99久国产精品黄毛片入口| 不卡视频一二三四| 在线观看免费污视频| 亚瑟在线精品视频| 欧美伦理免费在线| 国外成人在线播放| 先锋影音久久| 亚洲国产精品三区| 在线免费观看视频一区| 国产一区二区无遮挡| 亚洲成年网站在线观看| 免费视频亚洲| 国产精品高潮呻吟久久av无限 | 日韩av电影免费观看高清| 亚洲电影观看| 5252色成人免费视频| 日韩欧美高清| 日本一级黄视频| www.日本久久久久com.| 欧美激情免费在线| 亚洲影视在线| 男女午夜网站| 欧美久久精品一级黑人c片| 成人教育av在线| 欧美日韩视频精品二区| 中文在线资源观看网站视频免费不卡| 日本女优爱爱视频| 亚洲一区av在线| 黄色羞羞视频在线观看| 欧美黑人xxx| 久久精品成人| 国产麻豆久久| 97高清免费视频| 日韩电影免费在线| 黄动漫网站在线观看| 在线这里只有精品| 曰本一区二区| 国产美女永久无遮挡| 欧美国产禁国产网站cc| 欧洲精品在线播放| 国产网站一区二区| 亚洲图片88| 欧美精品一区二区三区在线| 99a精品视频在线观看| 欧美激情中文网| 国产毛片一区二区三区| 久久xxxx| 国产一二三四区在线观看| 五月天一区二区三区| 成人激情自拍| xxxxxx在线观看| 欧美黑人xxxx| 国产精品女主播在线观看| 色综合.com| 久久久久久久久久久久电影| 农村寡妇一区二区三区| 亚洲va国产va欧美va观看| 99久久人爽人人添人人澡| 欧美一级免费在线观看| 欧美成人在线直播| 国产精品一线天粉嫩av| 成人av小说网| 韩国福利视频一区| 国产日韩精品一区二区三区在线| 自拍偷拍亚洲图片| 国产精品欧美激情在线观看| xxxx性欧美| 中文字幕精品三区| 岛国精品一区| 成视频免费在线看| 国产精品免费久久久| 亚洲午夜羞羞片| 欧美69视频| 91在线看片| 一区二区av| 日韩在线视频线视频免费网站| 成人少妇影院yyyy| 亚洲视频国产| 在线观看av影片| 老司机精品福利在线观看| 亚洲第一av在线| 国产盗摄精品一区二区三区在线| 羞羞影院欧美| 欧美xxxxx在线视频| 91高潮在线观看| 精品免费在线视频| 天堂蜜桃91精品| 国产精品高潮久久| 九色丨porny丨| 成人在线国产精品| 日韩一区二区三区视频| 日韩av网站在线观看| 日本肉肉一区 | 日韩精品国内| 亚洲精品久久久一区二区三区| 国产成人亚洲精品青草天美| 日韩城人网站| 91九色porny在线| 蜜桃传媒视频麻豆第一区免费观看| 亚洲第一福利网站| 中文字幕第一页久久| 四虎成人精品永久免费av九九| а√天堂中文在线资源bt在线| 午夜精品视频在线观看一区二区 | 国产写真视频在线观看| 视色,视色影院,视色影库,视色网 日韩精品福利片午夜免费观看 | 久久国产精品精品国产色婷婷| 亚洲成色777777女色窝| 久久青草欧美一区二区三区| 残酷重口调教一区二区| 欧美日韩在线视频免费观看| 国产成人久久777777| 91在线免费视频| 日韩精品在线播放| 亚洲靠逼com| 久久午夜视频| 精品国产一区二区三区成人影院 | 亚洲蜜臀av乱码久久精品 | http;//www.99re视频| 亚洲精品视频中文字幕| 亚洲欧美国产77777| 日韩黄色在线观看| 国产一区二区在线视频你懂的| 可以免费看污视频的网站在线| 狠狠噜天天噜日日噜| 国产精品一区二区三区在线播放| 欧美成人性战久久| 国产精品美女久久久久久| 激情综合视频| 日韩欧美中文字幕在线视频| 日本www在线观看视频| 美女av电影| 欧美午夜性视频|