編者按:本文來自微信公眾號(hào) 新智元(ID:AI_era),作者:新智元,創(chuàng)業(yè)邦經(jīng)授權(quán)轉(zhuǎn)載。
這段Midjourne和Gen-2生成的「芭本海默」預(yù)告片火了!瘋狂傳播后,網(wǎng)友們驚呼:這是原片吧?
最近,一段用AI生成的芭比和奧本海默拼接電影——「芭本海默」(Barbenheimer)的預(yù)告片火了!
每個(gè)鏡頭的構(gòu)圖,看起來都非常完美。
戴著防護(hù)鏡的芭比「造」起原子彈,面色冷峻,動(dòng)作熟練。
稍稍有些缺憾的是,芭比看起來沒有生命,因?yàn)樘^完美,會(huì)有些許恐怖谷效應(yīng),讓人有點(diǎn)害怕。
預(yù)告片末的這段粉色蘑菇云,也被網(wǎng)友們瘋狂轉(zhuǎn)發(fā)。
一部是關(guān)于原子彈之父奧本海默(J. Robert Oppenheimer)的傳記片,而另一部是具有解構(gòu)意義的女性主義電影,這種混搭的反差感,無疑令人捧腹。
有人這樣評(píng)論:片子有一些韋斯安德森和塔倫蒂諾的味道,太贊了!
視頻創(chuàng)作者是一位名叫Curious Refuge的網(wǎng)友,他表示,「芭本海默」的預(yù)告片由Midjourney和Runway的Gen-2合成,配音也是由AI生成的瑪格特·羅比和馬特·達(dá)蒙的聲音。
并且,整個(gè)過程只用了4天。
有人問出了直擊靈魂的問題:這是得用多強(qiáng)大的配置才能做出來?
CR表示:一臺(tái)標(biāo)準(zhǔn)的MacBook Pro而已!
不得不說,這畫面也太逼真了,難怪好萊塢最近在鬧罷工,抗議在演藝界使用AI了。
演員、編劇、導(dǎo)演……AI打翻所有人的飯碗,真不是說說而已。
10年后,我們的電影真的不需要演員了
如何制作?
Midjourney能根據(jù)prompt和原圖生成逼真的圖片,但是,生成的靜圖怎樣做出動(dòng)態(tài)圖像呢?
關(guān)于制作過程,CR在帖子中透露了一些細(xì)節(jié):這需要結(jié)合一些不同的技術(shù),要比直接從D-ID等工具獲取渲染高級(jí)得多。
總之,大部分是靠Midjourney和AE生成的,有些鏡頭是用Runway Gen-2。
當(dāng)然,不出意料的,CR在帖子中貼上了自己的賣課鏈接?。而且已經(jīng)有網(wǎng)友報(bào)名了。
一個(gè)新的產(chǎn)業(yè)——AI電影制作,或許就此誕生。
仔細(xì)研究完作者的回復(fù),小編決定親自上手一試!看看能不能用Midjourney和Gen-2,自己生成粉色原子彈爆炸的鏡頭。
首先是用Midjourney生成一張粉色原子彈爆炸的圖。
選取了圖4作為視頻的第一幀,然后下載下來。
然后注冊(cè)登錄Runway的賬號(hào),進(jìn)入編輯界面。
點(diǎn)擊左側(cè)的Generate Video。
把剛剛下好的粉色蘑菇云的圖上傳到Gen-2服務(wù)器。
然后不要輸入任何提示詞,直接生成。
就這樣,總共10分鐘左右,一句提示詞+Midjourney+Gen-2,電影中的4秒場景到手。
而且如果嫌4某個(gè)場景4秒鐘的效果不夠長,還可以截圖4秒最后一幀,讓Gen-2續(xù)杯。
除了粉色爆炸場景,小編還試了一下人物場景的效果。
因?yàn)闆]有辦法通過Gen-2很好地控制動(dòng)畫幅度,所以沒法還原電影里的場景。
網(wǎng)友吶喊:請(qǐng)重拍權(quán)游!
CR認(rèn)為,人們可以在一部電影中能觀看到兩部電影時(shí),為什么還要再分別觀看這兩部電影呢?
對(duì)于「芭本海默」,CR的推薦語是這樣的:
「她變成了死亡本身,她是世界的毀滅者。Barbenheimer,我們一直在期待的混搭風(fēng)?!?/p>
對(duì)于Curious_Refuge的作品,網(wǎng)友們激動(dòng)炸了。
這位說:曾經(jīng)我一想到自己會(huì)變老,就很沮喪,但是現(xiàn)在,等我變老時(shí),我就能用AI制作電影,看起來完全像一部真正的電影。這可太酷了!
毫不意外,繼續(xù)有人呼吁重拍《權(quán)力的游戲》最后一季。(果然,在這方面全世界網(wǎng)民都達(dá)到了一致)
有手快的大聰明,已經(jīng)用同樣的方法生成了阿凡達(dá)的預(yù)告片。
而一名前谷歌工程師、擁有130萬訂閱者的大佬也對(duì)這部「芭本海默」大加贊賞。
他評(píng)論道:「我喜歡用簡單的人工智能創(chuàng)作工具來巧妙地編織一個(gè)有核心的故事,這遠(yuǎn)遠(yuǎn)勝過堆砌起花里胡哨的劇情。
創(chuàng)作者們認(rèn)為這沒什么大不了的,很簡單,但是就像barbenheimer一樣,故事高于一切,而他們沒有抓住真正的重點(diǎn)?!?/p>
而另一位網(wǎng)友評(píng)論,現(xiàn)在開始大家對(duì)芭比和奧本海默哪個(gè)才更好的爭論可以停止了,畢竟AI已經(jīng)創(chuàng)造了「芭本海默」!
盡管CR推出的只是一個(gè)預(yù)告片,但已經(jīng)有網(wǎng)友吶喊他愿意花錢看barbenheimer的完整版了。
Gen-2,一張圖就能生成視頻
顯然,「芭本海默」的這波創(chuàng)作,Gen-2起了大作用。
就在上周,初創(chuàng)公司Runway又宣布了炸裂級(jí)更新:不用文本,只用一張圖,Gen-2就能生成視頻了!
網(wǎng)頁版免費(fèi)用,iOS即將上線。
手癢的網(wǎng)友們?cè)缇桶崔嗖蛔×耍娂娪肎en-2、PS、MusicGen、AudioLDM等工具,做出一波效果炸裂的大片。
把Midjourney和Gen-2混搭,視頻畫面高級(jí)質(zhì)感簡直讓人驚掉下巴。
有人說:Midjourney 5.2+Gen-2太炸裂,就像一個(gè)很深的兔子洞,令人徹底迷失其中。
并且,有網(wǎng)友找到了讓Gen-2輸出更長時(shí)間視頻的方法。
就是用Midjourney生成的圖像作為初始圖像,然后使用Gen-2輸出的最后一幀作為下一張的圖像提示。
AIGC瘋傳,好萊塢員工都怕了!
最近幾周,整個(gè)好萊塢的工作都陷入了停滯。演員和編劇們紛紛罷工,對(duì)于AI的影響表示擔(dān)憂和抗議。
此時(shí)出現(xiàn)的「芭本海默」,更像是一個(gè)警鐘。
如果用AI副本就可以替代,誰還會(huì)花高價(jià)去請(qǐng)瑪格特·羅比和馬特·達(dá)蒙這樣的大牌演員?
如果用Midjourney和Gen-2就能得到可以媲美好萊塢大片的電影,為什么還需要藝術(shù)家和編劇耗時(shí)的工作?
如今,AIGC產(chǎn)生的娛樂產(chǎn)物,非常適合當(dāng)下互聯(lián)網(wǎng)時(shí)代的病毒式傳播。
而隨著「芭本海默」的熱轉(zhuǎn),任何內(nèi)容創(chuàng)作者都可以迅速生成自己的電影片段,在社交媒體上分享。
而傳統(tǒng)的廣告公司,根本不可能追上這些民間創(chuàng)作者的速度,甚至?xí)驗(yàn)榱钊送鴧s步的成本根本不敢嘗試。
網(wǎng)友瘋狂二創(chuàng)
「芭本海默」發(fā)布以后,全網(wǎng)的熱度就居高不下。
AI竟然能將沉重的原子彈和粉色芭比結(jié)合起來,網(wǎng)友們粉紛表示自己被打開了腦洞,同時(shí)各路網(wǎng)友大顯神通,陷入了對(duì)「芭本海默」的二創(chuàng)熱中。
之前在《蜘蛛俠:縱橫宇宙》中制作樂高蜘蛛俠的LegoMe_TheOG,也制作了一段樂高版的「芭本海默」。
粉絲在下面評(píng)論:「這是我見過的最美的爆炸!」
而另外一波網(wǎng)友也開始自娛自樂,有用AI生成一系列搞怪圖片的,也有做視頻的.......可謂是百花齊放!
這么死亡的搭配風(fēng)格,但這個(gè)肯看起來還是有點(diǎn)帥?墨菲的臉真的能拯救一張圖!
芭比無所不能!所以......會(huì)爆炸好像也挺合理的?
那么,生活在同一世界觀下的芭比和奧本海默會(huì)蹭出什么樣的火花呢?
開粉色車的奧本海默,在實(shí)驗(yàn)室里的芭比。很好,有世界融合那味了。
當(dāng)然,芭比中的肯也難逃被「混搭」的命運(yùn)。
還有熱心網(wǎng)友畫了芭比和奧本海默的二創(chuàng)圖!
視頻這塊,網(wǎng)友們的水平就有點(diǎn)參差不齊了。
有的讓人當(dāng)場恐怖谷效應(yīng)發(fā)作,有的可以媲美CR的制作。
看來,CR還是有點(diǎn)技術(shù)含量在身上的。
參考資料
https://www.reddit.com/r/midjourney/comments/1543jsn/i_created_a_barbenheimer_trailer_using_midjourney/
https://venturebeat.com/ai/what-the-viral-ai-generated-barbenheimer-trailer-says-about-generative-ai-hype-the-ai-beat
本文為專欄作者授權(quán)創(chuàng)業(yè)邦發(fā)表,版權(quán)歸原作者所有。文章系作者個(gè)人觀點(diǎn),不代表創(chuàng)業(yè)邦立場,轉(zhuǎn)載請(qǐng)聯(lián)系原作者。如有任何疑問,請(qǐng)聯(lián)系editor@cyzone.cn