編者按:本文來自微信公眾號 量子位(ID:QbitAI),作者:魚羊,創(chuàng)業(yè)邦經(jīng)授權(quán)轉(zhuǎn)載。
通義千問GPT-4級大模型,直接擊穿全網(wǎng)底價!
就在剛剛,阿里突然放出大招,官宣9款通義大模型降價。
其中,性能對標GPT-4的主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,也就是1塊錢能買200萬tokens,相當于5本《新華字典》的文字量,堪稱全球大模型的性價比之王。
更直觀一點對比——
Qwen-Long支持1000萬tokens的長文本輸入,對比GPT-4,價格僅為1/400。
超大杯新品,此番也在降價名單中:剛發(fā)布不久的通義千問超大杯Qwen-max,API輸入價格也直降67%,低至0.02元/千tokens。
開源方面,Qwen1.5-72B、Qwen1.5-110B等5款開源模型的輸入價格也分別直降75%以上。
這波操作,再次擊穿全網(wǎng)最低價,可以說是專屬大模型企業(yè)、程序員的618狂歡了。
1塊錢200萬token
來看具體降價情況:
本次降價,共覆蓋9款通義千問系列模型,商業(yè)化模型、開源模型全都在列。
包括:
Qwen-Long,性能對標GPT-4,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,降幅97%;API輸出價格從0.02元/千tokens降至0.002元/千tokens,降幅90%。
Qwen-max,在權(quán)威基準OpenCompass上性能追平GPT-4-turbo,API輸入價格從0.12/千tokens降至0.04元/千tokens,降幅67%。
上榜大模型競技場排名的Qwen1.5系列開源模型方面,Qwen1.5-72B的API輸入價格從0.02元/千tokens降至0.005元/千tokens,降幅75%;API輸出價格從0.02元/千tokens降至0.01元/千tokens,降幅50%。
與OpenAI的GPT系列相比,降價后的通義千問系列,基本上都是1折購,性價比拉滿。
以降幅最大的Qwen-Long為例,價格僅為GPT-4的1/400,性能指標上卻并不遜色。
尤其在長文本方面,Qwen-Long支持最長1000萬tokens的超長上下文對話,也就是能輕松處理約1500萬字或1.5萬頁的文檔。配合同步上線的文檔服務(wù),還可支持word、pdf、Markdown、epub、mobi等多種文檔格式的解析和對話。
值得關(guān)注的是,不同于國內(nèi)大部分廠商輸入輸出價格相同的定價方式,這次Qwen-Long的輸入價格比輸出價格降幅更大。
對此,阿里官方也給出了解釋:
現(xiàn)在,用戶結(jié)合長文本(論文、文檔等)對大模型提問已經(jīng)成為最常見的需求之一,所以模型輸入調(diào)用量往往大于輸出調(diào)用量。
根據(jù)統(tǒng)計,真實的模型輸入調(diào)用量一般是輸出的8倍左右。我們把用戶使用量最大的輸入token價格大幅降下去,對企業(yè)來說更劃算,可以更好地做到普惠。
也是希望大家把長文本用起來。
阿里一出手就是大招
說起來,這已經(jīng)不是阿里云第一次擊穿行業(yè)底價。
就在今年的2月29日,阿里云剛剛整過一個云產(chǎn)品“瘋狂星期四”的大活兒:全線云產(chǎn)品價格直降20%,最高降幅達55%。
屬實是砍自己一大刀了。
如此大手筆,底氣來源是阿里云作為國內(nèi)第一大公有云廠商,在長期技術(shù)積累和規(guī)模效應下,已經(jīng)構(gòu)建起完備的AI基礎(chǔ)設(shè)施和Infra技術(shù)優(yōu)勢。
而此番誠意滿滿的降價,背后更是顯露出大模型應用時代,這種技術(shù)紅利正在成為公有云廠商的“殺手锏”之一。
在AI基礎(chǔ)設(shè)施層面,從芯片層到平臺層,阿里云已經(jīng)基于自研的異構(gòu)芯片互聯(lián)、高性能網(wǎng)絡(luò)HPN7.0、高性能存儲CPFS、人工智能平臺PAI等核心技術(shù)和產(chǎn)品,構(gòu)建起了高彈性的AI算力調(diào)度系統(tǒng)。
舉個例子,PAI支持10萬卡量級的集群可擴展規(guī)模,超大規(guī)模訓練線性拓展效率達96%。在大模型訓練任務(wù)中,達到同樣效果可節(jié)省超50%算力資源,性能達到全球突出水平。
推理優(yōu)化方面,阿里云主要提供了三大能力:
其一,高性能優(yōu)化。包括系統(tǒng)級的推理優(yōu)化技術(shù),以及高性能算子、高效推理框架、編譯優(yōu)化的能力。
其二,自適應調(diào)優(yōu)。隨著AI應用的多樣化,一個單一的模型很難在所有場景中都保持最佳效能,自適應推理技術(shù)允許模型根據(jù)輸入數(shù)據(jù)的特性和計算環(huán)境的約束,動態(tài)調(diào)整推理技術(shù)應用和計算資源選型。
其三,可擴展部署。模型推理部署資源的擴展和彈性,能解決推理服務(wù)在一定時期內(nèi)的潮汐現(xiàn)象。
此前,阿里云智能集團資深副總裁、公共云事業(yè)部總裁劉偉光也表示,公有云的技術(shù)紅利和規(guī)模效應,會帶來巨大的成本和性能優(yōu)勢。
這將促使“公有云+API成為企業(yè)調(diào)用大模型的主流方式”。
大模型應用時代主流路線:公有云+API
這也正是阿里云把大模型“價格戰(zhàn)”再度推向高潮的核心原因。
尤其對于中小企業(yè)、創(chuàng)業(yè)團隊而言,公有云+API一直以來被視作做大模型應用的性價比之選:
盡管開源模型發(fā)展勢頭迅猛,以Llama 3為代表的最強模型們更被認為已經(jīng)有媲美GPT-4的表現(xiàn),但私有化部署仍然面臨著成本高昂的問題。
以使用Qwen-72B開源模型、每月1億token用量為例,在阿里云百煉上直接調(diào)用API,每月僅需600元,私有化部署成本則平均每月超10000元。
除此之外,公有云+API模式還便于多模型調(diào)用,能提供企業(yè)級的數(shù)據(jù)安全保障。以阿里云為例,阿里云可以為企業(yè)提供專屬VPC環(huán)境,做到計算隔離、存儲隔離、網(wǎng)絡(luò)隔離、數(shù)據(jù)加密。目前,阿里云已主導、深度參與10多項大模型安全相關(guān)國際國內(nèi)技術(shù)標準的制定。
云廠商的開放性,還能為開發(fā)者提供更豐富的模型和工具鏈選擇。比如,阿里云百煉平臺在通義千問之外,還支持Llama系列、百川、ChatGLM等上百款國內(nèi)外大模型,同時提供大模型應用一站式開發(fā)環(huán)境,可以做到5分鐘開發(fā)一款大模型應用、5到10行代碼即可搭建企業(yè)級RAG應用。
量子位智庫在《中國AIGC應用全景報告》中提到,AIGC應用產(chǎn)品中,基于自建垂直大模型和API接入的產(chǎn)品占到將近7成。
這一數(shù)據(jù)同樣從側(cè)面佐證了“公有云+API”模式的市場潛力:在應用市場,對業(yè)務(wù)的理解和數(shù)據(jù)積累才是破局關(guān)鍵,在公有云+API的基礎(chǔ)上做應用,在成本和啟動速度方面都是更現(xiàn)實的選擇。
實際上,無論是直觀的價格之爭,還是更深層次的AI基礎(chǔ)設(shè)施之卷,反映出的都是,當大模型發(fā)展焦點逐步從基礎(chǔ)模型邁向落地應用,平臺廠商如何降低大模型的使用門檻,已經(jīng)成為競爭的關(guān)鍵所在。
劉偉光指出:
作為中國第一大云計算公司,阿里云這次將主流大模型API輸入價格降低97%,就是希望加速AI應用的爆發(fā)。
我們預計未來大模型API的調(diào)用量會有成千上萬倍的增長。
總結(jié)起來就是,一方面,對于平臺廠商而言,“價格戰(zhàn)”背后其實是基礎(chǔ)設(shè)施、技術(shù)能力之爭;另一方面,對于整個大模型行業(yè)而言,應用是否能持續(xù)爆發(fā)、進一步普及,入局門檻、運營成本已成關(guān)鍵因素。
如此看來,近來卷起的降價趨勢,對于開發(fā)者和期待更多大模型應用的胖友們而言,不可謂不是利好消息。
你覺得呢?
本文為專欄作者授權(quán)創(chuàng)業(yè)邦發(fā)表,版權(quán)歸原作者所有。文章系作者個人觀點,不代表創(chuàng)業(yè)邦立場,轉(zhuǎn)載請聯(lián)系原作者。如有任何疑問,請聯(lián)系editor@cyzone.cn。