五月天成人小说,中文字幕亚洲欧美专区,久久妇女,亚洲伊人久久大香线蕉综合,日日碰狠狠添天天爽超碰97

華人團(tuán)隊(duì)提出「CoD」草稿鏈,減少 80% Token,AI 省錢第一名!

降低 AI 成本,依然是目前的一大難題。

圖片

編者按:本文來自微信公眾號(hào) 極客公園(ID:geekpark),作者:芯芯,編輯:靖宇,創(chuàng)業(yè)邦經(jīng)授權(quán)轉(zhuǎn)載。

兩個(gè)月前 DeepSeek R1 橫空出世,震驚所有人。除了成本巨低,大模型在回答問題時(shí)候顯示的思維鏈 CoT 也功不可沒。

在 AI 領(lǐng)域,大規(guī)模語言模型(LLMs)已經(jīng)展示了強(qiáng)大的推理能力。這些模型通常生成長長的「思維鏈(Chain-of-Thought, CoT)」來逐步推導(dǎo)答案,好處顯而易見,問題是計(jì)算成本和延遲高。

最近,Zoom 的研究團(tuán)隊(duì)提出了一種全新的推理范式——「草稿鏈(Chain-of-Draft, CoD)」,試圖通過模仿人類的簡(jiǎn)潔思維過程,來提升 AI 的推理效率,從而節(jié)省成本。

數(shù)據(jù)顯示,相同的任務(wù),使用 CoD 能將 Token 使用減少 80%,大幅度降低成本。

成本更低,準(zhǔn)確率卻不低的 CoD,會(huì)成為大模型的下一個(gè)趨勢(shì)嗎?

如何讓 AI「少寫點(diǎn)」?

無論是 OpenAI 的 o1,還是 DeepSeek 的 R1,在使用「思維鏈」處理任務(wù)時(shí)都有出色表現(xiàn),這個(gè)范式鼓勵(lì)模型將問題分解成一步步的推導(dǎo),類似于人類在紙上寫下完整的解題過程。

「盡管這一方法有效,但它在推理時(shí)需要大量的計(jì)算資源,導(dǎo)致輸出冗長且延遲較高?!筞oom 研究人員指出,LLM 通常會(huì)在得出最終答案之前消耗大量 Token。

在他們看來,人類通常解決問題的方式根本沒有這么冗長,「我們依賴簡(jiǎn)潔的草稿或速記來捕捉必要的見解,而不做不必要的詳細(xì)闡述?!?/p>

受此啟發(fā),他們提出「草稿鏈」這一新范式,鼓勵(lì)模型生成極簡(jiǎn)的中間推理步驟,只要捕捉解決問題的關(guān)鍵信息。

圖片

Zoom 華人團(tuán)隊(duì)發(fā)表「草稿鏈」研究論文 |圖片來源:arXiv

這一靈感來自人類的認(rèn)知過程。因?yàn)樵诮鉀Q復(fù)雜任務(wù)時(shí)——無論是解決數(shù)學(xué)問題、撰寫論文還是編程——人類通常只記錄下有助于推進(jìn)的關(guān)鍵信息。通過模仿這一行為,LLMs 可以專注于推進(jìn)解決方案,而不受冗長推理的影響。

其研究論文稱,這一方法不僅減少了冗余,還顯著降低了計(jì)算成本和延遲,同時(shí)保持了與「思維鏈」相當(dāng)?shù)臏?zhǔn)確性。

用一個(gè)簡(jiǎn)單的算術(shù)題例子感受直接回答(標(biāo)準(zhǔn))、「思維鏈」與「草稿鏈」的區(qū)別:

標(biāo)準(zhǔn):

問:杰森有 20 個(gè)棒棒糖。他給了丹尼一些棒棒糖?,F(xiàn)在杰森有 12 個(gè)棒棒糖。杰森給了丹尼多少個(gè)棒棒糖?

答:8

思維鏈:

問:杰森有 20 個(gè)棒棒糖。他給了丹尼一些棒棒糖?,F(xiàn)在杰森有 12 個(gè)棒棒糖。杰森給了丹尼多少個(gè)棒棒糖?

答:讓我們一步步來思考:

  1. 最初,杰森有 20 個(gè)棒棒糖。

2. 在給丹尼一些棒棒糖后,杰森現(xiàn)在有 12 個(gè)棒棒糖。

3. 為了找出杰森給了丹尼多少個(gè)棒棒糖,我們需要計(jì)算最初的數(shù)量和剩余數(shù)量之間的差異。

4. 我們可以設(shè)置一個(gè)簡(jiǎn)單的減法問題:最初的棒棒糖數(shù) - 剩余的棒棒糖數(shù) = 給丹尼的棒棒糖數(shù)

5. 把數(shù)字帶入:20 - 12 = 給丹尼的棒棒糖數(shù)

6. 解決減法:20 - 12 = 8

因此,杰森給了丹尼 8 個(gè)棒棒糖。

草稿鏈:

問:杰森有 20 個(gè)棒棒糖。他給了丹尼一些棒棒糖。現(xiàn)在杰森有 12 個(gè)棒棒糖。杰森給了丹尼多少個(gè)棒棒糖?

答:20 - x = 12;x = 20 - 12 = 8。#### 8

在標(biāo)準(zhǔn)的直接回答中,模型直接輸出答案「8」,沒有任何推理過程。雖然答案正確,但缺乏透明性,可解釋性不強(qiáng),且在多步推理任務(wù)中容易出錯(cuò)。

「思維鏈」則生成了冗長的推理。相比之下,「草稿鏈」的推理被簡(jiǎn)化為一個(gè)簡(jiǎn)潔的方程,答案應(yīng)放在響應(yīng)的結(jié)尾,并使用分隔符「####」,減少了 Token 數(shù),同時(shí)保持透明性和正確性。

為了評(píng)估「草稿鏈」的有效性,Zoom 的研究團(tuán)隊(duì)進(jìn)行了多種基準(zhǔn)測(cè)試,包括算術(shù)推理、常識(shí)推理和符號(hào)推理任務(wù)。其實(shí)驗(yàn)結(jié)果稱,草稿鏈在「準(zhǔn)確性」上與思維鏈相當(dāng),甚至在某些任務(wù)中表現(xiàn)更好,同時(shí)顯著減少了 Token 使用和延遲。

圖片

三種提示策略準(zhǔn)確性與 Token 量對(duì)比 |圖片來源:arXiv 論文

以算術(shù)推理任務(wù)為例,使用草稿鏈的 GPT-4o 和 Claude 3.5 Sonnet 模型在 GSM8k 數(shù)據(jù)集上的準(zhǔn)確率分別為 91.1% 和 91.4%,而思維鏈的準(zhǔn)確率分別為 95.4% 和 95.8%。

盡管草稿鏈的準(zhǔn)確率略低,但它將 Token 使用減少了 80%,并將延遲降低了 76.2% 和 48.4%。

在常識(shí)推理和符號(hào)推理任務(wù)中,他們稱草稿鏈同樣表現(xiàn)出色。例如,在擲硬幣任務(wù)中,草稿鏈將 GPT-4o 的 Token 使用減少了 68%,而 Claude 3.5 Sonnet 的 Token 使用減少了 86%,同時(shí)保持了 100% 的準(zhǔn)確率。

部署 AI,更省錢了?

Zoom 的研究人員還提到,與「草稿鏈」類似,去年圈內(nèi)已有研究提出「簡(jiǎn)潔思維(Concise Thoughts,CCoT)和 Token 預(yù)算感知 LLM 推理,建議對(duì)推理步驟使用固定的全局 Token 預(yù)算。

然而,不同的任務(wù)可能需要不同的預(yù)算,以實(shí)現(xiàn)性能和成本之間的最佳平衡。此外,LLM 可能無法遵守不切實(shí)際的預(yù)算,通常生成的 Token 數(shù)量遠(yuǎn)超預(yù)期。即使是動(dòng)態(tài)估算,也要額外的 LLM 調(diào)用,這增加了延遲。

「相比之下,我們的方法采用每步預(yù)算,允許無限的推理步驟,使其更適應(yīng)各種結(jié)構(gòu)化推理技術(shù)?!寡芯繄F(tuán)隊(duì)稱。

但「草稿鏈」也有其局限性,對(duì)于需要大量反思、自我糾正或外部知識(shí)檢索的任務(wù),它可能效果較差。

這項(xiàng)研究目前被討論較多的用處在于,它可能改變企業(yè)部署 AI 的成本,讓 AI 模型以更少的資源更便宜地思考,對(duì)成本敏感的場(chǎng)景尤其適用。

例如,AI 研究人員 Ajith Prabhakar 分析認(rèn)為,對(duì)于每月處理 100 萬條推理查詢的企業(yè),「草稿鏈」可以將成本從 3800 美元(CoT)降至 760 美元,每月節(jié)省超過 3000 美元——在大規(guī)模應(yīng)用時(shí),節(jié)省更多。

除了成本,「草稿鏈」可能使 AI 驅(qū)動(dòng)的應(yīng)用程序更加響應(yīng)迅速,特別是在實(shí)時(shí)支持、教育和對(duì)話式 AI 等領(lǐng)域尤其有價(jià)值,因?yàn)榧词故嵌虝旱难舆t也會(huì)嚴(yán)重影響用戶體驗(yàn)。

不過,值得注意的是,OpenAI 在 3 月 10 日發(fā)文稱,他們相信「思維鏈(CoT)監(jiān)控」可能是未來監(jiān)督超人類模型的少數(shù)工具之一,「建議不要對(duì)前沿推理模型的 CoT 施加強(qiáng)烈的優(yōu)化壓力,保持 CoT 不受限制,以便進(jìn)行監(jiān)控?!?/p>

因?yàn)槟P屯ǔ?huì)在「思維鏈」中非常清楚地陳述其意圖,讓人類可以看到模型的思維,從而檢測(cè)模型一些不當(dāng)行為,比如在編程任務(wù)中繞過測(cè)試、欺騙用戶,或者在問題過于困難時(shí)放棄。

圖片

OpenAI 發(fā)文提到思維鏈監(jiān)控的好處|圖片來源:X

無論如何,從「思維鏈」到「草稿鏈」,AI 推理范式還在不斷進(jìn)化。

目前看來,隨著應(yīng)用場(chǎng)景擴(kuò)展,在不談 AI 安全時(shí),成本與速度越來越成為繞不過的關(guān)鍵指標(biāo)。而 CoD 的出現(xiàn),證明了人們依然在探索如何在保持大模型進(jìn)步的前提下,進(jìn)一步降低成本,加速 AI 的普及。

本文為專欄作者授權(quán)創(chuàng)業(yè)邦發(fā)表,版權(quán)歸原作者所有。文章系作者個(gè)人觀點(diǎn),不代表創(chuàng)業(yè)邦立場(chǎng),轉(zhuǎn)載請(qǐng)聯(lián)系原作者。如有任何疑問,請(qǐng)聯(lián)系editor@cyzone.cn。

反饋
聯(lián)系我們
推薦訂閱