五月天成人小说,中文字幕亚洲欧美专区,久久妇女,亚洲伊人久久大香线蕉综合,日日碰狠狠添天天爽超碰97

在自由與秩序之間,為開源大模型搭建“避風(fēng)港”

足夠多的眼睛,能讓所有問題浮現(xiàn)。


編者按:本文來自微信公眾號(hào) 騰訊研究院(ID:cyberlawrc),作者:大模型研究小分隊(duì),創(chuàng)業(yè)邦經(jīng)授權(quán)轉(zhuǎn)載。

開源之所以寶貴,是因?yàn)槠涞烷T檻、高透明度帶來了源源不斷的創(chuàng)意和改進(jìn)。但與此同時(shí),大模型技術(shù)本身蘊(yùn)含的風(fēng)險(xiǎn)——從幻覺到被非法濫用——也真實(shí)存在。開源大模型治理需要實(shí)現(xiàn)“雙重目標(biāo)”,一是確保開源生態(tài)的生命力。為善意的開源貢獻(xiàn)者搭建可預(yù)期的責(zé)任避風(fēng)港,實(shí)現(xiàn)“創(chuàng)新自由”;二是協(xié)同防范大模型的重大風(fēng)險(xiǎn)。開源生態(tài)透明開放、平等協(xié)作的特征,已不再適配傳統(tǒng)的中心化監(jiān)管模式,開源大模型治理應(yīng)回歸開源社區(qū),構(gòu)建“社區(qū)治理秩序”。

一、開源:數(shù)字創(chuàng)新的源頭活水

開源在過去幾十年間成為數(shù)字世界的基石。從互聯(lián)網(wǎng)早期的Apache Web服務(wù)器,到移動(dòng)時(shí)代占據(jù)70%以上智能手機(jī)的安卓系統(tǒng)[1],再到云計(jì)算領(lǐng)域無處不在的Linux操作系統(tǒng)[2],開源軟件構(gòu)筑了全球信息基礎(chǔ)設(shè)施的脊梁 。在人工智能領(lǐng)域,Google開源TensorFlow使深度學(xué)習(xí)工具觸手可及,而中國團(tuán)隊(duì)推出的開源大模型DeepSeek-R1則在受限算力下逼近閉源模型的性能水平,更是推動(dòng)AI創(chuàng)新浪潮推邁向新階段[3]。

開源之所以能推動(dòng)創(chuàng)新,關(guān)鍵在于其開放協(xié)作的文化。全球各地的開發(fā)者不分晝夜地貢獻(xiàn)代碼、發(fā)現(xiàn)漏洞、優(yōu)化功能,共同塑造技術(shù)的未來。特別值得注意的是,中國在開源浪潮中正從跟隨者變?yōu)橹匾暙I(xiàn)者?!度蜷_源生態(tài)洞察報(bào)告 (2024年) 》顯示,中國開發(fā)者近840萬,占全球三分之一,在全球活躍度排名前100的開源軟件項(xiàng)目中,中國開發(fā)者主導(dǎo)的開源軟件項(xiàng)目占比17%,排名第二,未來仍有巨大增長空間[4]。

二、在人工智能領(lǐng)域,開源大模型快速崛起

2022年以來,開源模型呈趕超之勢。開源與閉源模型在性能和應(yīng)用領(lǐng)域的差距迅速縮小,甚至在某些方面實(shí)現(xiàn)超越[5]。它們?yōu)楹魏髞砭由希?

其一、開源的“集市協(xié)作模式”似乎正在AI領(lǐng)域重演,開啟“萬眾創(chuàng)新”新局面。 開源大模型將底層能力公開,公眾可免費(fèi)下載權(quán)重自行部署,進(jìn)行“二次創(chuàng)作”,在不同行業(yè)和場景中微調(diào)形成專用版本,靈活適配性大大增強(qiáng)。開發(fā)者共同分享工程經(jīng)驗(yàn),共同參與技術(shù)路線試錯(cuò),加速了AI發(fā)展進(jìn)化。這一趨勢讓人不禁聯(lián)想到經(jīng)典著作《大教堂與集市》中提出的開源范式——任何人皆可參與創(chuàng)新,形成“無邊界的技術(shù)市集” [6]。AI領(lǐng)域有望繼續(xù)譜寫開源的傳奇。

其次,開源模型提升了AI系統(tǒng)的透明度和安全性。 “正如最知名的加密算法往往是最安全的一樣, 最知名的AI 模型也可能是最安全的?!盵7 ]由于模型架構(gòu)、權(quán)重開放,外部研究者可以深入“解剖”模型,及時(shí)發(fā)現(xiàn)偏見或漏洞并共同改進(jìn)。相反,封閉模型如同“黑箱”,外界難以對(duì)其進(jìn)行監(jiān)督。

最后也最重要的是,開源打破了AI領(lǐng)域的既有封閉格局。 此前最先進(jìn)的AI模型往往為少數(shù)巨頭掌握,產(chǎn)業(yè)下游通過API付費(fèi)使用,對(duì)其缺乏議價(jià)或約束能力。開源減少了單一供應(yīng)商的鎖定效應(yīng),提升了技術(shù)自主權(quán)。在大模型領(lǐng)域,開源社區(qū)用更低算力復(fù)現(xiàn)了商業(yè)閉源模型的大部分能力,也迫使大型科技公司不得不重新評(píng)估策略,保障了行業(yè)的良性競爭。

三、當(dāng)前主要開源大模型的開放程度

盡管人們常用“開源”與“閉源”做二元對(duì)比,但在現(xiàn)實(shí)中,模型的開放程度呈現(xiàn)出一個(gè)遞進(jìn)的光譜 [8] 。從僅提供API接口的全封閉,到模型架構(gòu)、權(quán)重公開,乃至訓(xùn)練數(shù)據(jù)開放的完全開源,中間有許多層次。

圖1 主要開源大模型開放要素及許可證比較

注1:圖片根據(jù)斯坦福大學(xué)基礎(chǔ)模型研究中 心論文 [9] 結(jié)合公開的許可證信息制作

注2:開源要素——模型參數(shù)架構(gòu)、模型權(quán)重、源代碼、實(shí)現(xiàn)方法、訓(xùn)練數(shù)據(jù)

注3:在當(dāng)前開源的主流大模型中, DeepSeek-R1模型的開放更為徹底:開放權(quán)重、代碼,并通過技術(shù)文件公開重要的訓(xùn)練方法。相比之下,LLaMA 2采用定制許可,允許商業(yè)使用但附加條件(要求月活躍用戶在超過7億的用戶必須向Meta單獨(dú)申請(qǐng)?jiān)S可)

綜上,大模型的開放程度形成了一個(gè)豐富的譜系。從治理角度,也需要針對(duì)模型開放度的不同層次分類施策。為便于討論,下文所提到的開源大模型,以目前行業(yè)主流標(biāo)準(zhǔn)為依據(jù),是指模型參數(shù)公開透明, 開源許可中除禁止用于違法用途等一般聲明外,允許用戶自由運(yùn)行、研究,修改的模型。

四、開源大模型治理——從開源文化中汲取智慧

開源之所以寶貴,是因?yàn)槠涞烷T檻、高透明度帶來了源源不斷的創(chuàng)意和改進(jìn)。但與此同時(shí),大模型技術(shù)本身蘊(yùn)含的風(fēng)險(xiǎn)——從幻覺到被非法濫用——也真實(shí)存在。具體來說,開源大模型治理需要實(shí)現(xiàn)“雙重目標(biāo)”:

一方面,首要確保開源生態(tài)的生命力,實(shí)現(xiàn)“創(chuàng)新自由”,為開源者搭建可預(yù)期的責(zé)任避風(fēng)港, 對(duì)善意的開源探索給予充分的空間,以吸引更多開發(fā)者參與開源,推動(dòng)開源技術(shù)繁榮發(fā)展;

另一方面,針對(duì)開源風(fēng)險(xiǎn)的獨(dú)特性,構(gòu)建開源AI治理的“社區(qū)秩序”,不致引發(fā)重大危害。 這其中:開源本身的發(fā)展歷史提供了許多寶貴經(jīng)驗(yàn),從社區(qū)自治到協(xié)同治理,將為開源模型的安全治理提供重要啟示。

圍繞以上兩方面目標(biāo),本文提出以下建議:

(一) 為開源者搭建可預(yù)期的責(zé)任避風(fēng)港:

具體說來,避風(fēng)港由兩個(gè)清晰的責(zé)任邊界組成:

一是在縱向上:區(qū)分產(chǎn)業(yè)上下游,明確模型開發(fā)者與應(yīng)用者兩類角色,明確責(zé)任邊界。

責(zé)任分配的基本出發(fā)點(diǎn)是要考慮主體的“風(fēng)險(xiǎn)管控能力”。 模型開發(fā)者掌控模型設(shè)計(jì)研發(fā)與訓(xùn)練,而部署者深入具體應(yīng)用場景的細(xì)節(jié),二者就大模型的安全風(fēng)險(xiǎn)在管控能力上存在本質(zhì)差別。因此,當(dāng)下各國AI治理的共識(shí)之一便是對(duì)產(chǎn)業(yè)主體角色進(jìn)行區(qū)分,并適配不同的治理責(zé)任。例如:

歐盟《人工智能法》 明確了兩類不同主體:模型開發(fā)者 (Provider) ,其主要責(zé)任在于保障其開發(fā)的AI系統(tǒng)符合安全性、透明性等要求。采取風(fēng)險(xiǎn)評(píng)估、適當(dāng)?shù)募夹g(shù)措施來增強(qiáng)AI系統(tǒng)的可靠性;模型部署應(yīng)用者 (Deployer) 主要確保AI系統(tǒng)在應(yīng)用過程中符合法規(guī)要求。對(duì)高風(fēng)險(xiǎn)AI系統(tǒng)進(jìn)行持續(xù)監(jiān)控,面向用戶提供充分的權(quán)利保護(hù)機(jī)制等。

美國加州2024年SB-1047法案 中的爭議也體現(xiàn)了分類治理的認(rèn)知。該法案初始沒有明確區(qū)分“開發(fā)者”和“部署者”,而是幾乎將所有義務(wù)集中加在“模型開發(fā)者” (provider) 身上。此提案引發(fā)包括李飛飛在內(nèi)的產(chǎn)業(yè)界人士強(qiáng)烈反對(duì) [10] 。有專家指出:SB-1047 將部署者應(yīng)承擔(dān)的使用責(zé)任轉(zhuǎn)嫁給開發(fā)者,相當(dāng)于讓“電機(jī)制造商為電鋸的使用事故負(fù)責(zé)” [11] 。該法案最終被否決。

我國《生成式人工智能服務(wù)管理暫行辦法》 將分類治理的思路往前推進(jìn)一步。規(guī)章對(duì)模型研發(fā)階段做出了整體性的豁免。除非面向公眾提供服務(wù),作為服務(wù)提供者承擔(dān)研發(fā)階段的相關(guān)要求,如數(shù)據(jù)治理的基本規(guī)范。這實(shí)際形成了一種“激勵(lì)研發(fā)探索的沙盒”:在研發(fā)階段,允許包括開源社區(qū)在內(nèi)的各類主體自由探索;一旦進(jìn)入應(yīng)用階段,特別是公眾可觸及的服務(wù),再將服務(wù)本身納入監(jiān)管。

開源模型普遍采用的許可證協(xié)議中對(duì)下游應(yīng)用的“免責(zé)聲明”,與以上責(zé)任分界邏輯是自洽統(tǒng)一的。 開源許可證作為開源社區(qū)的“社會(huì)契約”,其核心功能是通過授權(quán)條款,明確開發(fā)者與下游用戶之間的權(quán)利和責(zé)任關(guān)系。如BSD許可證明確,開發(fā)者不對(duì)任何直接或間接損失負(fù)責(zé)。MIT許可證強(qiáng)調(diào)“按原樣”提供軟件,不提供任何明示或默示的保證。開源許可證符合著作權(quán)法和合同法的基本原則,并通過責(zé)任框架,免除了開源貢獻(xiàn)者的后顧之憂。促進(jìn)了開源社區(qū)的協(xié)作創(chuàng)新。這也是各國在法律、司法上在通常情況下認(rèn)定開源許可證具有明確法律效力的根本原因。

二是在橫向上:基于開源與閉源的顯著差別,開源不應(yīng)承擔(dān)與閉源同等的責(zé)任。

訓(xùn)練一個(gè)模型就像制造一臺(tái)機(jī)器,若模型存在基本的明顯缺陷,開發(fā)者需要對(duì)此有預(yù)見并盡可能防范。因此無論開源或閉源,開發(fā)者理應(yīng)承擔(dān)基本的安全責(zé)任。然而與閉源相比,這種“基本責(zé)任”對(duì)于開源模型開發(fā)者應(yīng)有邊界。

一方面,開源開發(fā)者往往缺乏足夠的控制力。 開源開發(fā)人員在發(fā)布模型后,“不可能實(shí)際監(jiān)控和防止下游濫用” [12] 。下游人員可以微調(diào)并規(guī)避原始開發(fā)人員設(shè)置的安全護(hù)欄,對(duì)此開源者不可能預(yù)見所有極端用法。相比之下,封閉模型的開發(fā)公司通常也是模型商業(yè)服務(wù)的提供方,從提供穩(wěn)定可靠的AI商業(yè)服務(wù)的目的出發(fā),閉源模型公司通常會(huì)在模型研發(fā)階段有更大規(guī)模的安全投入,如進(jìn)行內(nèi)部紅隊(duì)測試和安全優(yōu)化 [13] ;而布魯斯金學(xué)會(huì)的相關(guān)報(bào)告指出:“開源者通常不會(huì)從他們的貢獻(xiàn)中獲利,且他們沒有預(yù)算和合規(guī)部門能夠完成那些繁重的義務(wù)?!?[14]

另一方面,治理需要考慮到開源開發(fā)者的積極性。 如果要求開源開發(fā)者承擔(dān)與閉源的商業(yè)提供者相同的義務(wù),將會(huì)導(dǎo)致開源社區(qū)或研究人員為了避免責(zé)任而選擇不公開發(fā)布模型,從而抑制開源創(chuàng)新。 [15] 相關(guān)智庫曾批評(píng):“未能區(qū)分封閉源與開源AI”的做法,實(shí)際是把透明開放的項(xiàng)目和封閉商業(yè)系統(tǒng)“一同纏入監(jiān)管之網(wǎng),結(jié)果就是開源開發(fā)者不知道自己的善意貢獻(xiàn)會(huì)招來稱贊還是懲罰,從而對(duì)開源創(chuàng)新形成寒蟬效應(yīng)?!?[16]

正因如此,即使在監(jiān)管最為嚴(yán)格的歐盟,其《AI Act》亦規(guī)定:免費(fèi)且開源發(fā)布的AI系統(tǒng)通常不受該法案的義務(wù)約束;而在通用模型領(lǐng)域,開源提供者也被免除了編制文件,提供信息等義務(wù)。美國則采取了更為寬松的做法。美國國家電信和信息管理局 (NTIA) 指出:目前尚無充分證據(jù)證明開源模型比封閉模型更危險(xiǎn),當(dāng)下并無必要立即出臺(tái)針對(duì)開源模型的強(qiáng)制規(guī)定,強(qiáng)調(diào)以持續(xù)監(jiān)測作為風(fēng)險(xiǎn)托底,在必要時(shí)才考慮采取行動(dòng) 。

(二)從開源文化借鑒治理智慧——信任社區(qū)的力量

開源生態(tài)凸顯了透明開放、平等協(xié)作的特征。 如果僵化地將其適用于中心化、科層化的傳統(tǒng)監(jiān)管模式,不僅無法達(dá)到預(yù)期的監(jiān)管效果,也將對(duì)開源的生態(tài)活力帶來巨大的負(fù)面影響。開源大模型的安全治理應(yīng)回歸開源社區(qū),在開源文化中借鑒治理智慧。

社區(qū)自律與監(jiān)督是開源治理的核心一環(huán)。 以開源AI模型的集散地Hugging Face平臺(tái)為例,其已經(jīng)形成了一套成熟的社區(qū)治理經(jīng)驗(yàn)。平臺(tái)方:要求模型發(fā)布者提供詳盡的模型卡 (Model Card) ,對(duì)模型訓(xùn)練數(shù)據(jù)、性能、倫理影響等做說明,并特別列出模型的適用和不適用范圍。同時(shí)平臺(tái)將對(duì)模型作額外審查,明確禁止帶有惡意后門代碼、用途違法的模型。一旦發(fā)現(xiàn),管理員會(huì)迅速下架處理。如果某個(gè)模型被多次舉報(bào)存在有害內(nèi)容,社區(qū)和輿論的譴責(zé)也會(huì)形成一定威懾力。對(duì)于某些高風(fēng)險(xiǎn)模型,Hugging Face 會(huì)要求添加“非面向所有受眾”標(biāo)簽,從而在用戶訪問時(shí)彈出警示并默認(rèn)隱藏該內(nèi)容。 [17] 社區(qū)用戶:則可對(duì)有害內(nèi)容或可疑模型進(jìn)行標(biāo)記舉報(bào),或貢獻(xiàn)改進(jìn)的數(shù)據(jù)集來微調(diào)糾偏。類似的,Open Assistant 項(xiàng)目利用GitHub issue和Discord頻道收集用戶對(duì)模型輸出的反饋,鼓勵(lì)大家參與“紅隊(duì)”測試來發(fā)現(xiàn)模型弱點(diǎn) [18] 。

除開源社區(qū)外, 開源AI模型開發(fā)和部署涉及多個(gè)利益相關(guān)方,包括:云計(jì)算提供商、模型托管平臺(tái)、下游使用及應(yīng)用開發(fā)者、分發(fā)渠道、第三方評(píng)測審計(jì)者、終端用戶乃至政府監(jiān)管部門,每一方都擁有獨(dú)特的能力和責(zé)任,只有通過充分協(xié)作才能達(dá)成有效的AI風(fēng)險(xiǎn)治理 [19] 。

“足夠多的眼睛,能讓所有問題浮現(xiàn)?!?1997年,埃里克·雷蒙 (Eric S. Raymond) 提出的“Linus 定律”至今仍熠熠。無論是在軟件時(shí)代還是AI時(shí)代,在開放的社區(qū)中,錯(cuò)誤和缺陷更容易被發(fā)現(xiàn)和修正。這種精神也浸潤在每一個(gè)社區(qū)實(shí)踐中——Linux內(nèi)核的安全維護(hù)靠的是全球成千上萬開發(fā)者的共同監(jiān)督與補(bǔ)丁提交;主要發(fā)行版廠商負(fù)責(zé)將安全更新及時(shí)推送給用戶;大型IT企業(yè)資助漏洞懸賞計(jì)劃;政府部門出臺(tái)網(wǎng)絡(luò)安全基線要求……同理,在開源大模型領(lǐng)域,我們也期待形成基于社區(qū)機(jī)制的開放治理生態(tài)——生態(tài)中的每一類參與主體對(duì)其最有能力管控的風(fēng)險(xiǎn)環(huán)節(jié),實(shí)施包括預(yù)警、感知、糾正、消減風(fēng)險(xiǎn)的各類措施,達(dá)成開放協(xié)作敏捷高效的安全協(xié)作。

本期文章主要由騰訊研究院-大模型小分隊(duì):王融、鐘雨霏、袁媛、王強(qiáng)等完成

注釋來源:

[1] CounterPoint Research. Global Smartphone OS Market Share Q4 2024. 2024. Web.

https://www.counterpointresearch.com/

[2] The Linux Foundation. "The Linux Foundation: It's Not Just the Linux Operating System." Linux Foundation, 21 Jan. 2020,

www.linuxfoundation.org/blog/blog/the-linux-foundation-its-not-just-the-linux-operating-system.

[3] Yang, Zeyi. "How Chinese AI Startup DeepSeek Made a Model that Rivals OpenAI." Wired, 25 Jan. 2025,

https://www.wired.com/story/deepseek-china-model-ai/?utm_source=chatgpt.com.

[4] 中國通信標(biāo)準(zhǔn)化協(xié)會(huì). 全球開源生態(tài)洞察報(bào)告(2024 年)[EB/OL]. (2024-07-05) [2025-03-25].

http://221.179.172.81/images/20240705/27981720160008486.pdf.

[5] David, Emilia. "Meta Says Llama 3 Beats Most Other Models, Including Gemini." The Verge, 18 Apr. 2024,

https://www.theverge.com/2024/4/18/24134103/llama-3-benchmark-testing-ai-gemma-gemini-mistral.

[6] Raymond, Eric S. The Cathedral and the Bazaar: Musings on Linux and Open Source by an Accidental Revolutionary. O'Reilly Media, 1999.

[7] Third Way. "Open-Source AI Is a National Security Imperative." Third Way, February 2025, www.thirdway.org/report/open-source-ai-is-a-national-security-imperative. Accessed 25 Mar. 2025.

[8] National Telecommunications and Information Administration. "Dual-Use Foundation Models with Widely Available Model Weights." National Telecommunications and Information Administration, July 2024, .

[9] Considerations for Governing Open Foundation Models,

https://hai.stanford.edu/sites/default/files/2023-12/Governing-Open-Foundation-Models.pdf

[10] Raji, Timnit. "Godmother of AI Says California's AI Bill Will Harm U.S. Ecosystem." Fortune, 6 Aug. 2024,

https://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us-ecosystem-tech-politics/?abc123.

[11] "California SB 1047: Executive's Guide." FairNow, https://fairnow.ai/california-sb-1047-executives-guide/.

[12] Gent, Edd. "Protesters Decry Meta’s 'Irreversible Proliferation' of AI." IEEE Spectrum, 6 Oct. 2023,

https://spectrum.ieee.org/meta-ai#:~:text=The%20self,how%20the%20AI%20is%20used. Accessed 26 Mar. 2025.

[13] La Malfa, Emanuele, et al. "Language-Models-as-a-Service: Overview of a New Paradigm and its Challenges." arXiv,

https://ar5iv.labs.arxiv.org/html/2309.16573v2#:~:text=et%C2%A0al.

[14] Karabus, Jude. "GitHub CEO says EU AI Act shouldn't apply to open source devs." The Register, 7 Feb. 2023,

https://www.theregister.com/2023/02/07/github_ceo_ai_act/.

[15] "AI Act: How the EU Can Address the Challenges Posed by General-Purpose AI Systems." OpenFuture, Jan. 2023,

https://openfuture.eu/wp-content/uploads/2023/01/AI-Act_Mozilla-GPAI-Brief_Kx1ktuk.pdf.

[16] Denton, Jake. "The U.S. Shouldn't Go the Way of Europe on AI." The Heritage Foundation, 8 May 2024,

https://www.heritage.org/big-tech/commentary/the-us-shouldnt-go-the-way-europe-ai.

[17] Solaiman, Irene, 等. "Ethics and Society Newsletter #3: Ethical Openness at Hugging Face." Hugging Face Blog, 30 Mar. 2023,

https://huggingface.co/blog/ethics-soc-3#safeguards.

[18] Casta?o, Joel, 等. "Analyzing the Evolution and Maintenance of ML Models on Hugging Face." arXiv, 版本2, 2024年2月5日, https://arxiv.org/pdf/2311.13380.

[19] U.S. AI Safety Institute. "Managing Misuse Risk for Dual-Use Foundation Models." National Institute of Standards and Technology, 2025年1月,

https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.800-1.ipd2.pdf.

本文為專欄作者授權(quán)創(chuàng)業(yè)邦發(fā)表,版權(quán)歸原作者所有。文章系作者個(gè)人觀點(diǎn),不代表創(chuàng)業(yè)邦立場,轉(zhuǎn)載請(qǐng)聯(lián)系原作者。如有任何疑問,請(qǐng)聯(lián)系editor@cyzone.cn。


反饋
聯(lián)系我們
推薦訂閱