編者按:本文來自微信公眾號(hào) 科技旋渦,作者:賈桂鵬,創(chuàng)業(yè)邦經(jīng)授權(quán)轉(zhuǎn)載。
11月27日凌晨,OpenAI的文生視頻模型Sora,被人惡意泄露了API,使其短暫地開放了1小時(shí)左右。
據(jù)了解,此次泄露事件是由于自今年年初OpenAI首次預(yù)告了其文本轉(zhuǎn)視頻AI模型 Sora后,一直沒有提供任何具體的更新。導(dǎo)致一群參與OpenAI新型文本轉(zhuǎn)視頻AI模型Sora的測試藝術(shù)家,因?qū)镜牟粷M而泄露了該模型的早期訪問權(quán)限。
在OpenAI介入并關(guān)閉相應(yīng)權(quán)限之前,已經(jīng)有不少人制作了AI視頻并流出。此次對(duì)于OpenAI會(huì)造成什么樣的影響呢?
藝術(shù)家們的憤怒
據(jù)悉,泄露者通過AI開發(fā)平臺(tái)Hugging Face發(fā)布了一個(gè)與Sora API相關(guān)的項(xiàng)目,利用早期訪問的認(rèn)證token,創(chuàng)建了一個(gè)前端界面,允許用戶生成視頻。通過這個(gè)前端,任何用戶都可以輸入簡短的文字描述,生成最長10秒、分辨率高達(dá)1080p的視頻。
隨后,許多用戶在社交媒體上分享了生成的視頻示例,這些視頻大多帶有OpenAI的視覺水印。然而,短暫地開放了1小時(shí)左右,前端界面就停止了工作,外界猜測OpenAI和Hugging Face可能已經(jīng)撤銷了訪問權(quán)限。
而且,這些藝術(shù)家在Hugging Face這一公共AI模型平臺(tái)上發(fā)布了他們的抗議信,聲稱自己在測試過程中被公司利用,成為 “無償?shù)难邪l(fā)和公關(guān)工具”。
在這封公開信中,藝術(shù)家們表示:“親愛的企業(yè)AI領(lǐng)主們,我們獲得Sora的測試權(quán)限時(shí),被承諾是早期測試者和創(chuàng)意合作伙伴。然而,我們認(rèn)為自己只是被引誘進(jìn)入一種‘藝術(shù)洗白’的過程,為Sora做宣傳?!?他們強(qiáng)調(diào),藝術(shù)家不是公司的 “免費(fèi)bug測試員、宣傳工具、訓(xùn)練數(shù)據(jù)或驗(yàn)證token”。
有意思的是,在公開信相關(guān)網(wǎng)站上,它獲得了122名聯(lián)名支持者,其中甚至出現(xiàn)了馬斯克的名字。但考慮到簽名系統(tǒng)不需要嚴(yán)格的身份認(rèn)證,暫時(shí)不能確定其是否為馬斯克本人。
在事件發(fā)生后,當(dāng)有媒體聯(lián)系OpenAI時(shí),OpenAI并未證實(shí)Sora泄露的真實(shí)性,但強(qiáng)調(diào)參與 “研究預(yù)覽” 的藝術(shù)家是自愿的,并不需要提供反饋或使用該工具。
科技旋渦認(rèn)為,年初OpenAI首次向世界展示了Sora,其生成視頻的時(shí)長、質(zhì)量讓人耳目一新,但幾乎一年時(shí)間過去了,OpenAI對(duì)Sora還沒有有效更新,不過這還不是最可怕的,如果當(dāng)它的正式版本發(fā)布后,已經(jīng)屬于落后的技術(shù),那才是OpenAI的悲哀。
OpenAI的安全問題
Sora相關(guān)項(xiàng)目的泄露很容易讓人們聯(lián)想到安全的問題,如果這個(gè)事件繼續(xù)發(fā)酵,很容易讓大家對(duì)利用大量數(shù)據(jù)進(jìn)行訓(xùn)練的AI公司失去信任。
而且,這樣的安全隱患隨著一位已辭職的OpenAI團(tuán)隊(duì)負(fù)責(zé)人的發(fā)言變得越來越接近,他表示,科技巨頭微軟斥巨資支持的OpenAI正在解散其聚集于AI安全研究的“AGI Readiness”團(tuán)隊(duì),該團(tuán)隊(duì)曾經(jīng)負(fù)責(zé)向這家AI初創(chuàng)公司提供如何處理與應(yīng)對(duì)越來越強(qiáng)大的AI技術(shù)方面的解決方案與建議,以及提供當(dāng)今世界是否準(zhǔn)備好管理這些技術(shù)方面的建議。“AGI Readiness”團(tuán)隊(duì)曾經(jīng)的團(tuán)隊(duì)主管表示,希望在外部繼續(xù)AGI領(lǐng)域的相關(guān)研究。近期越來越多跡象表明,OpenAI似乎全身心投入AI創(chuàng)收,無暇顧及AI安全。
而在本月初,OpenAI再痛失一員大將,OpenAI安全研究副總裁Lilian Weng發(fā)出長信,官宣離開OpenAI的安全團(tuán)隊(duì)。
今年9月,OpenAI宣布其安全與安保委員會(huì)將成為獨(dú)立的董事會(huì)監(jiān)督委員會(huì),該委員會(huì)于今年5月成立,負(fù)責(zé)處理有關(guān)安全流程的爭議。該委員會(huì)最近結(jié)束了為期90天的審查,對(duì)OpenAI的流程和保障措施進(jìn)行了評(píng)估,然后向董事會(huì)提出了建議。
高管離職和董事會(huì)變動(dòng)的消息也是繼今年夏天圍繞OpenAI的安全問題和爭議日益增多之后傳出的,此時(shí)OpenAI與谷歌、微軟、Meta和其他公司正處于生成式人工智能軍備競賽的風(fēng)口浪尖——據(jù)預(yù)測,這個(gè)市場將在十年內(nèi)達(dá)到1萬億美元的營收規(guī)?!?yàn)楦餍懈鳂I(yè)的公司似乎都急于增加人工智能聊天機(jī)器人和代理,以避免被競爭對(duì)手甩在身后。
據(jù)The Information援引一位了解相關(guān)會(huì)議情況的人士透露,今年夏天,在一些并未公開的會(huì)議上,奧特曼的團(tuán)隊(duì)向美國國家安全官員展示了“草莓”模型。
報(bào)道指出,通過向政府官員展示一項(xiàng)尚未發(fā)布的技術(shù),OpenAI可能為人工智能開發(fā)者樹立了新標(biāo)準(zhǔn),尤其是在先進(jìn)人工智能日益成為潛在安全隱患的今天。此次演示可能是OpenAI努力向政策制定者提高透明度的一部分,但如果政策制定者認(rèn)為該項(xiàng)技術(shù)形成威脅,那么他們可能給公司帶來麻煩。
不過,一些業(yè)界人士對(duì)此并不買賬,因?yàn)镺penAI并未向公眾提升透明度。AI初創(chuàng)公司Abacus.AI CEO Bindu Reddy表示,封閉的OpenAI將他們最好的大模型藏在背后,以此來取得領(lǐng)先優(yōu)勢?!叭绻麤]有開源AI,我們都會(huì)完蛋,我們可能會(huì)把文明的控制權(quán)交給1到2家公司?!?/p>
寫在最后
雖然這次藝術(shù)家們的泄露只是抒發(fā)出自己的不滿,好像沒有造成更大的影響,但OpenAI的ChatGPT平臺(tái)被曝出一系列沙盒漏洞,用戶竟能在本不該接觸的環(huán)境中游刃有余,文件上傳、命令執(zhí)行甚至文件結(jié)構(gòu)瀏覽,這令人不禁想起黑客神秘的入侵操作。這些安全問題的出現(xiàn),進(jìn)一步凸顯了OpenAI在網(wǎng)絡(luò)安全方面的潛在風(fēng)險(xiǎn)。
本文為專欄作者授權(quán)創(chuàng)業(yè)邦發(fā)表,版權(quán)歸原作者所有。文章系作者個(gè)人觀點(diǎn),不代表創(chuàng)業(yè)邦立場,轉(zhuǎn)載請(qǐng)聯(lián)系原作者。如有任何疑問,請(qǐng)聯(lián)系editor@cyzone.cn。