五月天成人小说,中文字幕亚洲欧美专区,久久妇女,亚洲伊人久久大香线蕉综合,日日碰狠狠添天天爽超碰97

硅谷新王Sam Altman舌戰(zhàn)國會山,欲與政府聯(lián)手重寫科技規(guī)則

ee
北京移動互聯(lián)網(wǎng)
面向女生的新一代場景社交
最近融資:|2016-01-06
我要聯(lián)系
Sam Altman也迎來「周受資時刻」了,在國會山聽證會上,他備受議員尊敬。OpenAI和政府一聯(lián)合,他是要成為rulemaker、登頂硅谷之王了?

編者按:本文來自微信公眾號 新智元(ID:AI_era),創(chuàng)業(yè)邦經(jīng)授權(quán)轉(zhuǎn)載,頭圖來源攝圖網(wǎng)

上次是周受資,這次,輪到了Sam Altman。

不過這一次,國會議員對他的態(tài)度截然不同——友好,耐心,做足了功課,虛心請教。

北京時間昨晚,OpenAI CEO Sam Altman在美國參議院就AI技術(shù)的潛在危險作證,并敦促立法者對制造先進(jìn)AI的組織實施許可要求和其他法規(guī)。

圖片

Sam Altman不用接受刁鉆的問話,他坐在席位上游刃有余、侃侃而談,再次向世界證明:作為全世界最受矚目的初創(chuàng)公司CEO,他在書寫著科技世界的規(guī)則和未來。

面對美國國會,Sam Altman再次斬釘截鐵地保證:在未來六個月內(nèi),OpenAI堅決不會訓(xùn)練GPT-5。

同時, 他也對全世界發(fā)出警告:AI有可能會對世界有害,為了應(yīng)對日益強(qiáng)大的AI風(fēng)險,我們需要加強(qiáng)監(jiān)管和立法,而政府的干預(yù)極為重要。

為啥Altman對政府監(jiān)管如此積極呢?

顯然,只要成為規(guī)則制定者,就能在競爭中贏者通吃。

而對于在硅谷靠著「社?!箤傩躁J出一片天地的Altman,和政府打交道,簡直輕松得如同探囊取物。

用AI生成的開場演講

作為科技界異軍突起的新力量,OpenAI在成立8年后,在今年以迅雷不及掩耳之勢攪動了全世界,逼得所有科技公司都參與進(jìn)了一場以ChatGPT為起點的全球內(nèi)卷。

這場全球AI軍備競賽,讓不少專家警鈴大作。

不過這次聽證會,參議院的議員們并沒有批評OpenAI的技術(shù)帶來的混亂,而是謙遜地就ChatGPT的潛在規(guī)則征求了證人們的意見,對Sam Atlman的態(tài)度是肉眼可見的友好和尊敬。

圖片

聽證會一開始,參議員Richard Blumenthal使用了聲音克隆軟件復(fù)制自己的音色,讓ChatGPT寫了一段開場白,使用數(shù)小時的演講訓(xùn)練了一個文本到語音生成器。

此舉證明,國會「擁抱AI」的態(tài)度旗幟鮮明。

AI危險,請監(jiān)管我們

這一場聽證會上,立法者明顯非常興奮,與他們曾經(jīng)對小扎和周受資步步緊逼的質(zhì)疑形成了鮮明對比。

參議員們沒有喋喋不休地談?wù)撨^去的錯誤,而是對AI可能帶來的好處充滿渴望。

而Altman開門見山地告訴參議院:AI技術(shù)可能會出錯。

圖片

他表示,自己很擔(dān)心人工智能行業(yè)對世界造成重大傷害(cause significant harm to the world)。

「如果AI技術(shù)出錯,造成的后果不堪設(shè)想。我們需要對此發(fā)聲:我們希望與政府合作,防止這種情況發(fā)生。」

「我們認(rèn)為,政府的監(jiān)管干預(yù)對于減輕日益強(qiáng)大的AI模型的風(fēng)險,至關(guān)重要。比如,美國政府可以考慮將許可和測試的要求結(jié)合起來,以開發(fā)和發(fā)布超過能力閾值的AI模型?!?/p>

Altman表示,自己非常擔(dān)心選舉會受到AI生成內(nèi)容的影響,因此在這方面需要有足夠的監(jiān)管。

對此,參議員Dick Durbin表示,大公司來到參議院「懇求我們的監(jiān)管」,是很了不起的行為。

Altman提出三點方案:

怎么監(jiān)管?Altman早就替政府想好了。

在聽證會上,他提出一個成體系的方案。

1. 成立一個新的政府機(jī)構(gòu),負(fù)責(zé)為大型 AI 模型頒發(fā)許可,撤銷不符合標(biāo)準(zhǔn)的模型的許可。

而對于能力遠(yuǎn)達(dá)不到最先進(jìn)的大模型的技術(shù),他認(rèn)為不需要使用這種許可監(jiān)管制度。國會可以「定義能力閾值」,免除小型公司和研究人員可能遇到的監(jiān)管負(fù)擔(dān),鼓勵創(chuàng)新。

2. 為 AI 模型創(chuàng)建一套安全標(biāo)準(zhǔn),包括對其危險能力的評估。

例如,模型必須通過安全測試,比如它們是否可以「自我復(fù)制」和「流出到監(jiān)管之外」。

3. 要求獨立專家對模型在各種指標(biāo)上的表現(xiàn)進(jìn)行獨立審計。

當(dāng)參議員問他是否愿意擔(dān)任這個角色時,Altman說:我對目前的工作感到滿意,不過他很愿意提供一個名單供國會挑選。

Altman說,因為AI模型可以「說服、操縱、影響一個人的行為、信仰」,甚至「創(chuàng)造新的生物制劑」,因此,非常需要許可。

對所有超過一定計算能力閾值的系統(tǒng)進(jìn)行許可會更簡單,但Altman表示,自己更愿意根據(jù)特定能力劃定監(jiān)管線。

圖片

那OpenAI自己的模型安不安全呢?

Altman一再表示,大家可以放心。

他說,GPT-4模型比其他任何類似模型做出的回應(yīng)都會更有意、更真實,并且一定會拒絕有害的請求,因為GPT-4經(jīng)過了廣泛的預(yù)發(fā)布測試和審計。

「在發(fā)布任何新系統(tǒng)之前,OpenAI 會進(jìn)行廣泛的測試,聘請外部專家進(jìn)行詳細(xì)審查和獨立審計,改進(jìn)模型的行為,并實施強(qiáng)大的安全和監(jiān)控系統(tǒng)?!?/p>

圖片

「在發(fā)布GPT-4之前,我們花了六個多月的時間進(jìn)行廣泛的評估、外部紅隊和危險能力測試?!?/p>

并且在上個月,ChatGPT的用戶已經(jīng)可以關(guān)閉聊天記錄,防止自己的個人數(shù)據(jù)被用來訓(xùn)練AI模型了。

不過呢,也有眼尖的群眾發(fā)現(xiàn)了「華點」,Altman的提議中,并沒有涉及到公眾熱議的兩點——

1. 要求AI模型為其訓(xùn)練數(shù)據(jù)公開來源。

2. 禁止AI模型使用受到知識產(chǎn)權(quán)保護(hù)的作品進(jìn)行訓(xùn)練。

嗯,就是說,Altman非常巧妙地回避了這兩個爭議點。

Altman對于AI安全規(guī)則的提議,議員們大為贊許,并且偶爾會對他的證詞表示感謝。參議員R-LA甚至向Altman拋出了橄欖枝,問他是否有意在國會創(chuàng)建的監(jiān)管機(jī)構(gòu)工作。

國會決心監(jiān)管人工智能,早有前兆。本月初,Altman同谷歌、微軟和英偉達(dá)的CEO一同在白宮會見了副總統(tǒng)Kamala Harris,討論了負(fù)責(zé)任AI的發(fā)展。

而早在去年,白宮就曾提出「人工智能權(quán)利法案」,向業(yè)界提出各種要求,比如防止歧視。

類比原子彈,建議成立類似國際原子能機(jī)構(gòu)的國際組織

參議員提出,把AI比作原子彈的說法。

而Altman參考世界各國政府監(jiān)管核武器的做法,提出了組建一個類似于國際原子能機(jī)構(gòu)的機(jī)構(gòu),來為該行業(yè)制定全球規(guī)則的想法。

OpenAI在未來六個月內(nèi)不會訓(xùn)練GPT-5

在4月份Lex Fridman的第2輪訪談中,Sam Altman言之鑿鑿地說:「我們現(xiàn)在并沒有訓(xùn)練GPT-5,目前只是在GPT-4的基礎(chǔ)上進(jìn)行更多的工作而已。」

圖片

這次聽證會上,Altman更是直接承認(rèn),OpenAI在未來6個月內(nèi),沒有訓(xùn)練可能成為GPT-5的新模型的計劃。

而這應(yīng)該意味著,谷歌將在今年晚些時候擁有其迄今為止最強(qiáng)大的人工智能系統(tǒng)——Project Gemini。

據(jù)說,Gemini專為存儲和調(diào)度等未來創(chuàng)新而設(shè)計,不僅從一開始就是多模態(tài)的,而且在集成工具和API方面效率很高。目前正由新成立的Google Deepmind團(tuán)隊研發(fā)。

馬庫斯:OpenAI自稱為了全人類,可數(shù)據(jù)不透明

紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)教授Gary Marcus也出現(xiàn)在了證人席上。

圖片

他的攻擊性甚至比國會議員們還要強(qiáng)。

他對Sam Altman發(fā)出的提問,可謂「招招致命」。

OpenAI成立的宗旨不是造福全人類么,如今為什么跑去和微軟結(jié)盟?

OpenAI不Open,GPT-4的訓(xùn)練數(shù)據(jù)不透明,到底是幾個意思?

圖片馬庫斯總結(jié)道:我們擁有前所未有的機(jī)會,但我們也面臨著企業(yè)不負(fù)責(zé)任、廣泛部署、缺乏適當(dāng)監(jiān)管和不可靠的可怕風(fēng)險

在馬庫斯看來,Open和微軟的行事都大有問題。

曾經(jīng)微軟的必應(yīng)AI悉尼,表現(xiàn)出了一系列令人震驚的行為。

「悉尼的問題很大,如果是我,會馬上把它從市場上撤下,但微軟并沒有?!?/p>

馬庫斯表示,這件事給自己敲響了警鐘——即使是像OpenAI這樣的非盈利組織,也可能被大公司買下,然后想做什么就做什么。

但現(xiàn)在,人們的觀點和生活都在潛移默化地被AI塑造和改變,如果有人故意利用AI技術(shù),用于不良的目的呢?

馬庫斯對此表示非常擔(dān)心。

圖片「如果讓一種技術(shù)官僚和寡頭政治相結(jié)合,那少數(shù)公司就可以影響人們的信仰,這是真正的風(fēng)險所在......讓少數(shù)玩家使用我們根本不知道的數(shù)據(jù)來做到這一點,這讓我感到害怕」

Altman表示AI界并不存在壟斷

針對一些常見的法律監(jiān)管方面的問題,看得出來Altman早就成竹在胸,給各位參議員們安排得明明白白的。

參議員說,他對人工智能的「最大擔(dān)憂」之一是「這種大規(guī)模的企業(yè)壟斷」。

他舉了 OpenAI 與科技巨頭微軟的合作為例。

Altman表示,他認(rèn)為能夠制造大模型的企業(yè)數(shù)量相對較少,反而可能會更加方便監(jiān)管。

例如,大型的生成式 AI,只有少數(shù)公司能夠制造,但是競爭一直是存在的。

給大模型建立法律責(zé)任

美國國會 1996 年通過的第 230 條促進(jìn)了社交媒體的興起,該條款保護(hù)網(wǎng)站免于對用戶的帖子承擔(dān)責(zé)任。

Altman認(rèn)為:大模型現(xiàn)在沒有辦法受到230條的法律保護(hù)。應(yīng)該制定新的法律保護(hù)大模型不會因為輸出內(nèi)容而承擔(dān)法律責(zé)任。

巧妙回避最致命的問題

奧特曼最初回避了參議員提出的「AI可能造成最嚴(yán)重的后果」。

但在馬庫斯友好地提醒 Altman 沒有回答問題后,這位參議員重復(fù)了他的問題。

Altman最終也沒有正面回答這個問題。

圖片

他說,OpenAI 曾試圖非常清楚人工智能的風(fēng)險,這可能會以「很多不同的方式」對「世界造成重大傷害」。

他再次闡明。應(yīng)對這個問題就是OpenAI成立的原因?!溉绻@項技術(shù)出了問題,它可能會大錯特錯。」

其實,在今年早些時候接受「StrictlyVC」采訪時,Altman稱人類滅絕是最壞的情況。

最終,就連馬庫斯似乎也對奧特曼軟化了。

在聽證會快結(jié)束時,坐在Altman旁邊的馬庫斯說,「他在談?wù)摽謶謺r的誠意非常明顯,這種誠意在透過電視屏幕是沒法感受到的?!?/p>

老練的科技領(lǐng)袖

跟小扎相比,Altman此次聽證會的表現(xiàn)十分老練,想來他作為社牛,對與政客們打交道早已游刃有余。畢竟,Altman可是多年前就曾考慮過競選加州州長的人物。

而Altman背后的OpenAI不但幾乎沒有受到任何公眾的指責(zé),還是目前AI領(lǐng)域「萬物竟發(fā)」局面的最主要開創(chuàng)者。

面對一上來就示好,呼吁對AI進(jìn)行監(jiān)管的Altman,這些幾乎都是「技術(shù)素人」的立法者自然在這位「權(quán)威」面前會顯得溫柔和藹很多。

所以同樣場合之下,Altman身上的壓力與小扎相比完全不是一個數(shù)量級。

大模型的商業(yè)模式

有參議院提出這種擔(dān)心,如果像互聯(lián)網(wǎng)社交平臺一樣,AI產(chǎn)品如果采用廣告為主的商業(yè)模式,會讓操縱性的產(chǎn)品設(shè)計和令人上癮的算法被濫用。

Altman說自己「非常喜歡」訂閱模式。

但是OpenAI 確實考慮過在 ChatGPT 免費版中投放廣告來從其免費用戶那里賺錢的可能性。

參考資料:

https://arstechnica.com/tech-policy/2023/05/ai-technology-can-go-quite-wrong-openai-ceo-tells-senate/

https://www.theverge.com/2023/5/16/23726119/congress-ai-hearing-sam-altman-openai

本文為專欄作者授權(quán)創(chuàng)業(yè)邦發(fā)表,版權(quán)歸原作者所有。文章系作者個人觀點,不代表創(chuàng)業(yè)邦立場,轉(zhuǎn)載請聯(lián)系原作者。如有任何疑問,請聯(lián)系editor@cyzone.cn。


反饋
聯(lián)系我們
推薦訂閱