編者按:本文來(lái)自微信公眾號(hào) 騰訊科技(ID:qqtech),作者:無(wú)忌,編輯:鄭可君,創(chuàng)業(yè)邦經(jīng)授權(quán)轉(zhuǎn)載。
2025年8月6日凌晨(美東時(shí)間8月5日),OpenAI又一次攪動(dòng)AI行業(yè):再次回歸開源,并發(fā)布兩款全新的大語(yǔ)言模型:gpt-oss-120b和gpt-oss-20b。
這兩款模型完全免費(fèi),允許企業(yè)和獨(dú)立開發(fā)者下載代碼并根據(jù)需求修改,且可本地運(yùn)行以確保最大隱私,此外,還可以在高端筆記本和手機(jī)上運(yùn)行。
這是自2019年GPT-2開源后,該公司時(shí)隔六年重返開放生態(tài)。值得注意的是,這兩款模型屬于開放權(quán)重(open-weight)大語(yǔ)言模型,不提供訓(xùn)練數(shù)據(jù)和完整訓(xùn)練代碼,但權(quán)重可以公開獲取、可以下載、自主部署,授權(quán)方式為Apache2.0。
模型規(guī)格與性能亮點(diǎn):分別適用兩個(gè)不同場(chǎng)景
gpt-oss-120b:這款模型擁有1170億總參數(shù),每token激活51億參數(shù),適用于高推理能力的生產(chǎn)級(jí)和通用場(chǎng)景,可在單塊80GB顯存的Nvidia H100 GPU上高效運(yùn)行。
gpt-oss-20b:總參數(shù)210億,每token激活36億參數(shù),專為低延遲、本地化或?qū)I(yè)場(chǎng)景設(shè)計(jì),僅需 16GB 內(nèi)存即可在邊緣設(shè)備(如消費(fèi)級(jí)筆記本電腦或臺(tái)式機(jī))上運(yùn)行。
兩款模型均為純文本語(yǔ)言模型,在文本處理、代碼生成、數(shù)學(xué)問(wèn)題求解等領(lǐng)域表現(xiàn)強(qiáng)勁。
OpenAI同時(shí)還發(fā)布了34頁(yè)技術(shù)報(bào)告。
根據(jù)技術(shù)報(bào)告顯示,gpt-oss-120b在多項(xiàng)基準(zhǔn)測(cè)試中媲美甚至超越其專有模型o4-mini,包括編程競(jìng)賽(Codeforces)、通用問(wèn)題解決(MMLU和HLE)、工具調(diào)用(TauBench)、健康相關(guān)查詢(HealthBench)以及數(shù)學(xué)競(jìng)賽(AIME 2024 & 2025)。
在部分測(cè)試中,其性能甚至優(yōu)于旗艦?zāi)P虶PT-4o。而較小的gpt-oss-20b則與o3-mini性能相當(dāng),在AIME和HealthBench等測(cè)試中表現(xiàn)更佳。
兩款模型支持多語(yǔ)言處理,尤其在STEM、編程和通用知識(shí)領(lǐng)域表現(xiàn)出色。
OpenAI表示,通過(guò)本地化微調(diào)(如與瑞典政府合作的瑞典語(yǔ)優(yōu)化版本),可進(jìn)一步提升特定語(yǔ)言或區(qū)域的性能。此外,模型支持鏈?zhǔn)酵评恚–oT),同時(shí)兼容工具調(diào)用、少樣本函數(shù)調(diào)用和結(jié)構(gòu)化輸出,特別適合復(fù)雜代理任務(wù)。
技術(shù)架構(gòu):混合專家(MoE)架構(gòu),部署成本低
gpt-oss模型采用混合專家(MoE)架構(gòu),基于Transformer框架,通過(guò)交替使用密集注意力和局部帶狀稀疏注意力機(jī)制,結(jié)合分組多查詢注意力(組大小為8)和旋轉(zhuǎn)位置編碼(RoPE),實(shí)現(xiàn)高效推理和內(nèi)存利用,支持高達(dá)128,000 token的上下文長(zhǎng)度(約300-400頁(yè)小說(shuō)文本)。
模型使用開源的o200k_harmony分詞器,為OpenAI o4-mini和GPT-4o分詞器的超集,同步在GitHub發(fā)布。
開發(fā)者可通過(guò)低、中、高三種推理投入設(shè)置,根據(jù)延遲和性能需求靈活調(diào)整。模型未對(duì)CoT輸出進(jìn)行直接監(jiān)督訓(xùn)練,以保留推理過(guò)程的透明性,便于調(diào)試和安全監(jiān)控。
模型采用原生MXFP4量化技術(shù),使gpt-oss-120b能在單張H100 GPU上運(yùn)行,gpt-oss-20b僅需16GB內(nèi)存即可部署,極大降低了硬件門檻。
寬松許可:可免費(fèi)下載、微調(diào),并支持本地運(yùn)行
gpt-oss系列采用Apache 2.0許可,與中國(guó)開源模型(如DeepSeek、Qwen 3)一致,無(wú)copyleft限制或?qū)@L(fēng)險(xiǎn),相較于Meta Llama的復(fù)雜許可(月活躍用戶超7億需付費(fèi))更加企業(yè)友好。
任何消費(fèi)者、開發(fā)者或企業(yè)可免費(fèi)下載模型,進(jìn)行參數(shù)級(jí)微調(diào)以適配特定用例,并用于商業(yè)服務(wù)或創(chuàng)收,無(wú)需向OpenAI支付費(fèi)用。
更重要的是,模型支持本地運(yùn)行,無(wú)需聯(lián)網(wǎng),數(shù)據(jù)無(wú)需上傳至云端,滿足金融、醫(yī)療、法律、軍事及政府等高度監(jiān)管行業(yè)的數(shù)據(jù)隱私需求。此前,ChatGPT或OpenAI API用戶的數(shù)據(jù)需上傳至云端,可能面臨政府調(diào)取風(fēng)險(xiǎn)。而gpt-oss的本地運(yùn)行能力為隱私敏感用戶提供了強(qiáng)大解決方案。不過(guò),若連接外部工具(如網(wǎng)絡(luò)搜索),可能因第三方服務(wù)引入隱私風(fēng)險(xiǎn)。
為何重返開源:全球熱潮已無(wú)法阻擋
OpenAI上一次發(fā)布完全開源模型是2019年的GPT-2,此后專注于付費(fèi)專有模型,引發(fā)前聯(lián)合創(chuàng)始人Elon Musk等批評(píng),指責(zé)其背棄開源使命。
Altman在2025年2月Reddit AMA中表達(dá)遺憾,并承諾3月發(fā)布新開源模型,盡管計(jì)劃從7月推遲至今日。
此次回歸開源是對(duì)全球開源AI熱潮的回應(yīng)。2025年初以來(lái),中國(guó)(DeepSeek R1、Qwen 3、Kimi K2、GLM-4.5)、歐洲(Mistral)和中東(Falcon 2/3)推出的開源模型性能逼近專有模型,且?guī)缀鯚o(wú)使用限制。Hugging Face數(shù)據(jù)顯示,Qwen2.5-7B、DeepSeek-R1等模型下載量居前,反映開發(fā)者熱情。
OpenAI的ChatGPT周活躍用戶達(dá)7億,年收入130億美元,付費(fèi)企業(yè)客戶增至500萬(wàn),每日消息量超30億。
近期83億美元融資,讓它的估值已達(dá)3000億美元。然而,開源模型的免費(fèi)和高性能可能分流付費(fèi)用戶。競(jìng)爭(zhēng)對(duì)手Anthropic年收入50億美元,API收入(31億美元)略高于OpenAI(29億美元)。
開源模型的崛起讓OpenAI面臨核心問(wèn)題:當(dāng)免費(fèi)模型性能接近專有模型,用戶為何繼續(xù)付費(fèi)?
奧特曼曾表示,AI可能“廉價(jià)到無(wú)法計(jì)量”,這對(duì)AI行業(yè)高估值構(gòu)成挑戰(zhàn)。
OpenAI正通過(guò)提供企業(yè)定制服務(wù)(如派遣工程師協(xié)助部署和培訓(xùn),類似Palantir的“前向部署”模式)探索新收入來(lái)源。
未來(lái),AI使用可能向開源模型傾斜,而OpenAI需憑借便捷界面、多模態(tài)功能或更強(qiáng)大性能維持付費(fèi)用戶吸引力。
模型獲取方式與安全措施
gpt-oss-120b和gpt-oss-20b現(xiàn)已在以下平臺(tái)開放下載,包含完整模型權(quán)重:
Hugging Face:gpt-oss-120b(https://huggingface.co/openai/gpt-oss-120b)、gpt-oss-20b(https://huggingface.co/openai/gpt-oss-20b)
GitHub:https://github.com/openai/gpt-oss
技術(shù)報(bào)告與模型卡:https://cdn.openai.com/pdf/419b6906-9da6-406c-a19d-1bb078ac7637/oai_gpt-oss_model_card.pdf
在線體驗(yàn):https://gpt-oss.com/
模型支持Azure、AWS、Databricks、Cloudflare、Vercel、Together AI和OpenRouter等部署平臺(tái),NVIDIA、AMD、Cerebras提供硬件優(yōu)化,Microsoft通過(guò)ONNX Runtime提供Windows GPU支持。OpenAI還推出50萬(wàn)美元的Kaggle紅隊(duì)挑戰(zhàn)賽,鼓勵(lì)研究人員探索模型潛在風(fēng)險(xiǎn),并計(jì)劃發(fā)布公開報(bào)告和開源評(píng)估數(shù)據(jù)集,以推動(dòng)開源模型安全研究。早期采用者如AI Sweden、Orange和Snowflake已與OpenAI合作,探索本地化微調(diào)和安全部署用例。
安全評(píng)估方面,OpenAI采用其Preparedness Framework進(jìn)行安全訓(xùn)練,預(yù)訓(xùn)練階段過(guò)濾了涉及化學(xué)、生物、放射性和核威脅(CBRN)的數(shù)據(jù),并通過(guò)審議對(duì)齊和指令層級(jí)等后訓(xùn)練方法限制有害輸出。為測(cè)試最壞情況下的濫用風(fēng)險(xiǎn),OpenAI對(duì)gpt-oss-120b進(jìn)行了針對(duì)生物和網(wǎng)絡(luò)安全數(shù)據(jù)的惡意微調(diào),模擬現(xiàn)實(shí)攻擊場(chǎng)景。結(jié)果顯示,即便在啟用工具功能且禁用拒絕響應(yīng)機(jī)制的情況下,模型在生物風(fēng)險(xiǎn)和網(wǎng)絡(luò)安全領(lǐng)域的表現(xiàn)仍低于“高?!遍撝担Y(jié)論經(jīng)三家獨(dú)立專家組驗(yàn)證。
OpenAI還與SecureBio合作,進(jìn)行了生物學(xué)相關(guān)基準(zhǔn)測(cè)試(如HPCT和MBCT),結(jié)果顯示微調(diào)后的gpt-oss模型性能接近o3,但未達(dá)到高風(fēng)險(xiǎn)分類。這些評(píng)估支持了模型的公開釋放,并旨在推動(dòng)開源模型在復(fù)雜領(lǐng)域的安全研究。
本文為專欄作者授權(quán)創(chuàng)業(yè)邦發(fā)表,版權(quán)歸原作者所有。文章系作者個(gè)人觀點(diǎn),不代表創(chuàng)業(yè)邦立場(chǎng),轉(zhuǎn)載請(qǐng)聯(lián)系原作者。如有任何疑問(wèn),請(qǐng)聯(lián)系editor@cyzone.cn。