五月天成人小说,中文字幕亚洲欧美专区,久久妇女,亚洲伊人久久大香线蕉综合,日日碰狠狠添天天爽超碰97

中國(guó)天才少女硅谷創(chuàng)立AI公司,半年估值超10億

合伙人
上海社區(qū)社交
一個(gè)專注于服務(wù)創(chuàng)業(yè)者的垂直社交應(yīng)用
最近融資:天使輪|數(shù)百萬(wàn)人民幣|2013-12-31
我要聯(lián)系
AI視頻生成的“GPT時(shí)刻”,即將來(lái)臨。

編者按:本文來(lái)自微信公眾號(hào) 中國(guó)企業(yè)家雜志 (ID:iceo-com-cn) ,作者 :鄧雙琳,編輯:李薇,創(chuàng)業(yè)邦經(jīng)授權(quán)轉(zhuǎn)載。

這是一個(gè)巧妙的時(shí)刻。去年11月末,ChatGPT橫空出世,在全世界掀起了人工智能的狂潮,并以史上最快速度實(shí)現(xiàn)了上億活躍用戶。一年后,同樣的時(shí)間,硅谷又出現(xiàn)一枚“AI新星”,一夜之間迅速爆紅。

11月29日,AI視頻生成公司Pika Labs官宣了最新的視頻生成模型Pika1.0,并推出了新網(wǎng)站。據(jù)了解,Pika1.0能夠生成和編輯3D動(dòng)畫、動(dòng)漫、卡通和電影。幾乎不需要任何門檻,用戶只需要輸入一句話,就可以生成想要的各種風(fēng)格的視頻。此外,用戶還能夠通過(guò)Pika實(shí)現(xiàn)畫布延展、局部修改、視頻時(shí)長(zhǎng)拓展等編輯需求。

在宣傳片中,Pika1.0擁有強(qiáng)大的語(yǔ)義理解能力,輸入“馬斯克穿著太空服,3D動(dòng)畫”的關(guān)鍵詞,一個(gè)身穿太空服的卡通馬斯克便出現(xiàn)了,身后還有SpaceX的火箭。文生視頻的清晰度和連貫性,遠(yuǎn)超市面上其他AI視頻生成產(chǎn)品。

Pika Labs的創(chuàng)始團(tuán)隊(duì)同樣富有傳奇色彩——整個(gè)團(tuán)隊(duì)目前只有4個(gè)人。聯(lián)合創(chuàng)始人郭文景,是來(lái)自杭州的一位“95后”女孩,曾被譽(yù)為“天才少女”。郭文景與另一位聯(lián)合創(chuàng)始人孟晨琳同為斯坦福AI Lab的華人女博士,今年4月,二人一起從斯坦福退學(xué)創(chuàng)業(yè)。

郭文景的父親,是A股上市公司信雅達(dá)實(shí)控人郭華強(qiáng)。Pika走紅后,信雅達(dá)在11月30日、12月1日連續(xù)收獲兩個(gè)漲停,被調(diào)侃為“父憑女貴”“女兒概念股”。

隨后,信雅達(dá)發(fā)布公告,承認(rèn)郭文景與郭華強(qiáng)的父女關(guān)系,但“除上述關(guān)系外,公司與Pika無(wú)其他關(guān)系。截至目前,郭文景未在公司擔(dān)任任何職務(wù),公司未投資Pika,也未與Pika有任何業(yè)務(wù)往來(lái)?!?/p>

目前,Pika1.0正式的網(wǎng)頁(yè)版需要排隊(duì)預(yù)約,尚未有用戶實(shí)際測(cè)評(píng)過(guò)。有人借此質(zhì)疑,橫空出世的Pika一夜爆紅,是否為一場(chǎng)營(yíng)銷騙局?畢竟,在11月之前,Pika還只是一個(gè)無(wú)名之輩。

事實(shí)上,Pika的第一個(gè)版本今年4月下旬就在Discord上進(jìn)行了公測(cè)。7月,在Discord正式推出服務(wù)器,并在幾個(gè)月時(shí)間內(nèi)收獲了50萬(wàn)用戶。由于Pika團(tuán)隊(duì)精簡(jiǎn),寄生在Discord平臺(tái),能夠最大限度地減少開發(fā)量。

最初,Pika只支持文生視頻,后來(lái)逐漸支持圖片轉(zhuǎn)視頻、相機(jī)控制、文字和Logo嵌入視頻中等。Pika1.0宣傳片中的許多功能,目前Discord上的版本并不支持,只能等網(wǎng)頁(yè)版開放測(cè)評(píng)后驗(yàn)證。

Pika也并非第一次在眾人前亮相。今年11月初,《流浪地球3》的發(fā)布會(huì)上,電影工業(yè)化實(shí)驗(yàn)室G!Lab官宣成立。郭帆導(dǎo)演介紹了一批戰(zhàn)略合作的科技公司,包括商湯科技、小米、華為等,還有Pika Labs。

至今,成立僅6個(gè)月的Pika已經(jīng)完成了三輪融資,總金額5500萬(wàn)美元,估值超10億元人民幣。投資人陣容也可謂豪華——包括OpenAI董事會(huì)成員Adam D'Angelo與前特斯拉AI總監(jiān)Andrej Karpathy、前Github CEO Nat Friedman、YC合伙人Daniel Gross,以及硅谷著名投資人Elad Gil等。

全員“天才”

Pika的創(chuàng)始團(tuán)隊(duì),可謂全員天才。

郭文景早在2015年就在社交媒體上走紅。當(dāng)年,郭文景作為浙江第一個(gè)被哈佛本科提前錄取的學(xué)生,被央視報(bào)道,被稱為“天才少女”。

高一期間,郭文景便獲全國(guó)青少年信息學(xué)奧林匹克聯(lián)賽(浙江省賽區(qū))一等獎(jiǎng),隨后兩次拿到奧林匹克數(shù)學(xué)比賽冠軍;此后受美國(guó)麻省理工學(xué)院邀請(qǐng)參加比賽,獲北美編程邀請(qǐng)賽第2名,超過(guò)來(lái)自哈佛、斯坦福、卡內(nèi)基梅隆等大學(xué)代表隊(duì)。

進(jìn)入哈佛后,郭文景一邊攻讀學(xué)業(yè),一邊先后去了Meta AI Research、微軟、谷歌大腦、Epic Games等公司實(shí)習(xí)。大二時(shí),郭文景就成為了Meta AI研究部門最年輕的全職員工,并獲得了許多國(guó)際軟件開發(fā)大獎(jiǎng)。拿到數(shù)學(xué)本科與計(jì)算機(jī)碩士學(xué)位后,郭文景又到斯坦福大學(xué)繼續(xù)讀博。

聯(lián)合創(chuàng)始人孟晨琳和郭文景為斯坦福同學(xué)。過(guò)去三年,孟晨琳曾發(fā)表多篇研究論文,其中包括已成為內(nèi)容生成默認(rèn)方法,并被OpenAI的DALLE-2、谷歌的Imagen以及Stability AI的Stable Diffusion廣泛使用的降噪擴(kuò)散隱式模型(DDIM)。

另一位創(chuàng)始人陳思禹,據(jù)透露,與郭文景是杭州二中的同班同學(xué)。陳思禹是信息學(xué)和物理雙料國(guó)家集訓(xùn)隊(duì)成員,后保送北大,也是第一屆圖靈班的成員之一。4號(hào)員工Matan Cohen-Grumi的經(jīng)驗(yàn)主要在創(chuàng)意領(lǐng)域。

郭文景在接受采訪時(shí)表示,Pika將持續(xù)輕體量化發(fā)展,隨用戶暴增,2024年或?qū)F(tuán)隊(duì)拓展到20人。

創(chuàng)辦Pika的契機(jī),源于一次不被認(rèn)可的比賽。2022年,郭文景與幾位博士同學(xué)決定利用寒假時(shí)間使用生成式AI制作一部電影,參加Runway為其首屆“AI電影節(jié)”舉辦的大獎(jiǎng)賽。郭文景對(duì)拿獎(jiǎng)很有信心,但現(xiàn)實(shí)是幾個(gè)學(xué)霸認(rèn)真?zhèn)滟?,最終卻沒(méi)能入圍。

在備賽過(guò)程中,郭文景發(fā)現(xiàn)目前市面上制作視頻的AI工具異常麻煩,她花了數(shù)小時(shí)使用Runway和Adobe Photoshop等工具,卻收效甚微。這讓郭文景嗅到了創(chuàng)業(yè)的機(jī)會(huì)——為何不創(chuàng)造一個(gè)更易于普通人使用的AI視頻生成器?

想法萌生后,郭文景立刻行動(dòng)起來(lái)。今年4月,郭文景與孟晨琳一同從斯坦福退學(xué),共同開發(fā)Pika。

在創(chuàng)業(yè)做視頻生成之前,郭文景考慮過(guò)做游戲行業(yè),因?yàn)橛螒蚋菀咨虡I(yè)化,為此,在斯坦福讀博期間,她還專門去了Epic Games實(shí)習(xí),了解游戲行業(yè)的痛點(diǎn)。但后來(lái),她發(fā)現(xiàn)游戲行業(yè)太卷,而AI視頻生成還是一片藍(lán)海,機(jī)會(huì)更多,目前的創(chuàng)業(yè)方向“至少可以做十年”。

視頻生成的“GPT時(shí)刻”

在今年ChatGPT掀起的人工智能大模型熱潮中,基于語(yǔ)言大模型的聊天機(jī)器人成為最熱門創(chuàng)業(yè)方向;而在泛內(nèi)容生成類AI應(yīng)用中,圖像生成是最主要的場(chǎng)景,其次是寫作工具、視頻生成工具。

相較于語(yǔ)言模型,AI生成視頻是完全不同的一類模型。其與AI生成圖片的模型有共通之處,但難度更高。

郭文景在接受媒體采訪時(shí)表示,視頻有很多和圖片不一樣的問(wèn)題,比如要確保視頻的流暢性、確保動(dòng)作,視頻比圖像更大,需要更大的GPU內(nèi)存,視頻生成需要考慮邏輯問(wèn)題,還要考慮如何生成,是一幀一幀生成,還是一起生成,現(xiàn)在很多模型是一起生成,生成的視頻就很短。但如果要一幀一幀生成,又要怎么做?很多都是圖片生成不會(huì)面臨的新的技術(shù)問(wèn)題。

孟晨琳補(bǔ)充,視頻的每一幀都是一張圖片,比圖片困難得多。因?yàn)槊恳粠纳少|(zhì)量要高,相鄰幀之間還要有關(guān)聯(lián)性。當(dāng)視頻很長(zhǎng)時(shí),確保每一幀都協(xié)調(diào)一致是個(gè)相當(dāng)復(fù)雜的問(wèn)題。

在訓(xùn)練時(shí),處理視頻數(shù)據(jù)時(shí)要處理多張圖片,模型需要適應(yīng)這種情況。比如,如何將100幀圖片傳輸?shù)紾PU上是一個(gè)挑戰(zhàn)。而在推理時(shí),由于涉及到生成大量幀,推理速度相對(duì)于單張圖片會(huì)更慢,計(jì)算成本也會(huì)增加。

此外,控制視頻生成更難,因?yàn)槟P托枰擅恳粠l(fā)生的事情,而用戶不會(huì)希望為每一幀都提供詳細(xì)的描述。此外,視頻生成涉及到更多的空間維度,讓問(wèn)題變得更復(fù)雜。再加上互聯(lián)網(wǎng)上視頻生成的訓(xùn)練數(shù)據(jù)集相對(duì)于圖像更少,也給獲取高質(zhì)量數(shù)據(jù)增加了難度。

目前,AI生成視頻領(lǐng)域的創(chuàng)業(yè)已經(jīng)開始加速。僅11月,除了Pika1.0發(fā)布,還有多家企業(yè)發(fā)布了新的視頻生成工具。

11月16日,社交媒體巨頭Meta發(fā)布工具Emu Video,能夠基于文本和圖像輸入生成視頻剪輯;幾乎同時(shí),字節(jié)跳動(dòng)發(fā)了PixelDance模型,通過(guò)描述(純文本)+首幀指導(dǎo)(圖片)+尾幀指導(dǎo)(圖片),即可生成包含復(fù)雜場(chǎng)景和動(dòng)作的視頻。

11月21日,Runway動(dòng)態(tài)筆刷Motion Brush面世,其特別之處在于,只需在任意圖片上抹一筆,就能讓其變成一段動(dòng)態(tài)視頻。作為最早探索視頻生成領(lǐng)域的領(lǐng)頭羊之一,過(guò)去一年,Runway先后發(fā)布了Gen1、Gen2。

11月24日,專注于開發(fā)人工智能產(chǎn)品的初創(chuàng)公司Stable AI發(fā)布了其最新的AI模型Stable Video Diffusion(穩(wěn)定視頻擴(kuò)散模型),這款模型能夠通過(guò)現(xiàn)有圖片生成視頻,是基于之前發(fā)布的Stable Diffusion文本轉(zhuǎn)圖片模型的延伸。

除此之外,Adobe也在文生視頻領(lǐng)域有新動(dòng)作。日前,該公司宣布已收購(gòu)AI視頻生成創(chuàng)業(yè)公司Rephrase.ai,后者主要通過(guò)AI技術(shù)將文本轉(zhuǎn)換為虛擬形象視頻。Adobe高級(jí)副總裁兼總經(jīng)理Ashley Still稱,Rephrase.ai團(tuán)隊(duì)在生成式AI音視頻技術(shù)、文本到視頻生成工具方面的專業(yè)知識(shí)將擴(kuò)展Adobe的生成式視頻功能。

隨著Pika在文生視頻領(lǐng)域的應(yīng)用驗(yàn)證,業(yè)內(nèi)普遍認(rèn)為游戲傳媒類上市公司或?qū)⒙氏仁芤妗?/strong>值得關(guān)注的是,目前多家游戲傳媒類上市公司已成功將AIGC技術(shù)運(yùn)用到視頻或游戲素材的創(chuàng)作中。

可見(jiàn),視頻領(lǐng)域的競(jìng)爭(zhēng)日漸激烈,或許將成為下一階段AI競(jìng)爭(zhēng)的主要場(chǎng)景。在孟晨琳看來(lái),視頻領(lǐng)域的競(jìng)爭(zhēng)可能會(huì)類似語(yǔ)言模型的競(jìng)爭(zhēng)格局——一家公司發(fā)布新模型的時(shí)候,他們內(nèi)部可能已經(jīng)有了更先進(jìn)的模型,突出其他公司一到兩年。未來(lái)在視頻領(lǐng)域也會(huì)是一家公司突出一到兩年、在沖鋒,其他公司在追趕。

Pika的爆紅,也許意味著AI視頻生成的“GPT時(shí)刻”,即將來(lái)臨。

參考資料:

《專訪Pika Labs創(chuàng)始人:探索視頻生成的GPT時(shí)刻》,海外獨(dú)角獸

本文為專欄作者授權(quán)創(chuàng)業(yè)邦發(fā)表,版權(quán)歸原作者所有。文章系作者個(gè)人觀點(diǎn),不代表創(chuàng)業(yè)邦立場(chǎng),轉(zhuǎn)載請(qǐng)聯(lián)系原作者。如有任何疑問(wèn),請(qǐng)聯(lián)系editor@cyzone.cn。

反饋
聯(lián)系我們
推薦訂閱