圖源:圖蟲(chóng)
編者按:本文來(lái)自微信公眾號(hào)全媒派(ID:quanmeipai),作者朱亦祺,創(chuàng)業(yè)邦經(jīng)授權(quán)轉(zhuǎn)載。
AI換臉早已不是新鮮事,與前兩年相比,如今智能技術(shù)與真實(shí)世界的融合效果更加自然,讓人更加難以分辨。比如,韓國(guó)網(wǎng)紅Rui憑借甜美自然的外形、扎實(shí)的唱功在YouTube上收割了一大批粉絲。
然而,三個(gè)月前她卻自曝自己的臉是假的——她找到韓國(guó)的一家AI公司,公司通過(guò)數(shù)據(jù)庫(kù)里上千張臉的數(shù)據(jù)對(duì)比,合成出民眾喜歡的面部結(jié)構(gòu)和風(fēng)格,讓她在上鏡后自動(dòng)變成韓系甜妹臉,其換臉后在鏡頭前呈現(xiàn)出的自然程度讓不少網(wǎng)友直呼難以置信。
除此之外,以AI換臉為代表的Deepfake技術(shù)自2018年后廣泛應(yīng)用在各個(gè)領(lǐng)域,技術(shù)之進(jìn)步所產(chǎn)生的效果卻令人喜憂參半。本期全媒派(ID:quanmeipai)帶來(lái)匯編文章,借由網(wǎng)紅Rui的換臉故事淺談越來(lái)越真實(shí)的AI換臉會(huì)帶來(lái)哪些驚喜?又有何隱患?
AI換臉?biāo)茉煺婕匐y辨的網(wǎng)紅
隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,虛擬與現(xiàn)實(shí)的邊界逐漸模糊,AI換臉的真實(shí)程度如今已能做到讓人們難以分辨真假。
視頻博主RuiCovery是在YouTube上小有名氣的翻唱歌手,她發(fā)布的翻唱視頻和旅行vlog依靠其甜美的外表和扎實(shí)的唱功吸引了一眾“顏粉”和“實(shí)力粉”,這讓她的動(dòng)態(tài)經(jīng)常收獲5萬(wàn)甚至10萬(wàn)以上的點(diǎn)贊數(shù)。
圖片來(lái)源:Youtube@Ruicovery
然而,2021年初,Rui在視頻中坦言她的形象完全是由技術(shù)公司DOB Studio一手打造,在視頻中只有發(fā)型、身體和聲音是真實(shí)來(lái)源于“扮演者”的,而臉部則完全通過(guò)人工智能合成。
這一消息讓死忠粉相當(dāng)震驚,在她的視頻下有大量網(wǎng)友留言稱,“原來(lái)這是一張不存在的臉,讓人起雞皮疙瘩?!睂?duì)此,也有不少評(píng)論稱,“AI技術(shù)發(fā)展得太厲害了,讓人難以想象,十年后的世界會(huì)是什么樣子?”
據(jù)為Rui合成臉部的DOB Studio公司代表介紹,工作室是利用了機(jī)器學(xué)習(xí)去梳理了大量眾多漂亮面孔的人臉數(shù)據(jù),并使用了特定的人臉圖像合成技術(shù),將創(chuàng)建虛假圖像的人臉“換”到了Rui的“扮演者”現(xiàn)實(shí)中的身體上。
Rui在媒體采訪中表示,自己一直想當(dāng)歌手,但是在韓國(guó),歌手和偶像都是十分看重外表的,然而對(duì)外表并不自信的她一度覺(jué)得自己可能永遠(yuǎn)不會(huì)成功。后來(lái)了解到AI換臉技術(shù),于是決定把心思放在自己的肩膀以上部位,沒(méi)想到采用了虛擬人臉的翻唱視頻能夠這么受歡迎。
這樣的換臉技術(shù)在幾年前就曾爆火過(guò)。以國(guó)內(nèi)用戶比較熟悉的“ZAO”App為例,用戶只需要提供一系列自拍照,軟件便會(huì)幫他們記錄眨眼、移動(dòng)嘴巴和做出面部表情的動(dòng)態(tài)數(shù)據(jù),使用這些自拍照將人的動(dòng)畫(huà)形象逼真地嫁接到電影、電視節(jié)目或其他內(nèi)容上。
相比于“ZAO”等軟件為用戶提供的換臉技術(shù),Rui在視頻中呈現(xiàn)出的以假亂真的程度則讓人們更明顯地感受到了機(jī)器深度學(xué)習(xí)的進(jìn)步,這種進(jìn)步并不止于實(shí)驗(yàn)室,而是對(duì)現(xiàn)實(shí)中的內(nèi)容消費(fèi)產(chǎn)生了實(shí)實(shí)在在的影響。
以Rui為例,現(xiàn)在的AI換臉技術(shù)對(duì)于光影結(jié)構(gòu)和動(dòng)態(tài)五官的處理更為細(xì)膩,即便是動(dòng)態(tài)的,幾乎也看不出任何P的痕跡,所謂的“深度偽造”已經(jīng)名副其實(shí)。
AI換臉的基礎(chǔ)邏輯
AI換臉是Deepfake技術(shù)中的一種,Deepfake包括以圖片形式存在的臉部替換、以音頻形式存在的聲音替換以及影像中面部與聲音的同步替換。Deepfake中的“deep”指“深度學(xué)習(xí)”。
深度學(xué)習(xí)系統(tǒng)能夠一遍又一遍地處理某些任務(wù),使用機(jī)器深度學(xué)習(xí)進(jìn)行Deepfake換臉則意味著一個(gè)人的臉會(huì)以人工編輯可能意想不到或無(wú)法檢測(cè)到的方式變成另一個(gè)人的臉。
舉個(gè)例子,如果要使用AI換臉,在核心技術(shù)環(huán)節(jié)里,編碼器能夠?qū)W習(xí)兩個(gè)人的面部共同特征,并根據(jù)這些一般特征產(chǎn)生300多個(gè)測(cè)量值——如五官、情緒表達(dá)等。在這個(gè)過(guò)程中,兩個(gè)長(zhǎng)相不同的人的圖片被放置在虛擬空間中的相似位置,最終在數(shù)據(jù)的對(duì)比中產(chǎn)生的相似的測(cè)量值,生成的人臉將表現(xiàn)出與原始輸入圖像相同的情緒表達(dá)、頭部姿勢(shì)等。
正是因?yàn)檫@樣的原理,AI換臉技術(shù)相比于完全由計(jì)算機(jī)建模而成的“數(shù)字人類”更為真實(shí),也減少了恐怖谷效應(yīng)的產(chǎn)生。人類的所有面孔都會(huì)有共同點(diǎn),即使是在外表截然不同的人之間,只要某些元素一致,我們的大腦就會(huì)傾向于相信他們所看到的。
例如,如果有人將尼古拉斯·凱奇的臉強(qiáng)加在艾米·亞當(dāng)斯的身上,軟件將了解原始面部的哪些部分是每個(gè)演員特有的,應(yīng)該改變哪些部分如眼睛顏色、嘴形,應(yīng)該保留哪些重要?jiǎng)幼魅缑济?、嘴巴張開(kāi)。在面部交換后,則會(huì)留下一張具有尼古拉斯·凱奇特有特征的面孔,但又具有亞當(dāng)斯的原始舉止。
AI換臉應(yīng)用對(duì)于內(nèi)容業(yè)的部分影響
利好:用于電視和電影制作
如今AI換臉技術(shù)已經(jīng)被廣泛應(yīng)用在了影視制作領(lǐng)域,演員可以通過(guò)換臉技術(shù)進(jìn)行面部替換,已故演員可以在系列電影中為“情懷”重現(xiàn),特技替身將更加完美地還原于角色本身,此外它還可以用于自動(dòng)生成不同語(yǔ)言的畫(huà)外音,以增加電影的全球發(fā)行量。
例如演員保羅·沃克在一場(chǎng)車禍中去世后,電影《速度與激情7》團(tuán)隊(duì)為了盡可能忠實(shí)于電影并尊重演員,聘請(qǐng)了最好的數(shù)字效果工作室之一,以AI換臉的形式讓他參與到了電影的最后一部分。團(tuán)隊(duì)收集了保羅·沃克的350個(gè)CGI鏡頭并與他的親兄弟進(jìn)行鏡頭配對(duì)。比如在跳車后的鏡頭,原演員的臉被保羅CG版本所取代。
利好:個(gè)性化營(yíng)銷與宣傳將變得豐富
如今基于Deepfake和AI搭建的合成媒體正在成為吸引客戶并提供個(gè)性化價(jià)值的基礎(chǔ)。在時(shí)尚零售業(yè)務(wù)中,品牌可以通過(guò)換臉技術(shù)讓客戶試用最新的服裝和配飾,以此滿足客戶的個(gè)性化需求。這樣的換臉技術(shù)甚至能夠使品牌擁有一個(gè)虛擬試用室,供用戶在購(gòu)買之前體驗(yàn)產(chǎn)品。
此前英國(guó)的一家健康慈善機(jī)構(gòu)與大衛(wèi)·貝克漢姆和一家人工智能公司合作制作了一段視頻。通過(guò)機(jī)器深度學(xué)習(xí)對(duì)貝克漢姆臉部的識(shí)別與嘴形的替換,視頻中的他能夠無(wú)縫銜接地說(shuō)出九種語(yǔ)言。
在機(jī)器深度學(xué)習(xí)下,視頻中的人物始終可以保持面部運(yùn)動(dòng)與聲音相匹配。因此,在AI換臉技術(shù)的幫助下,人們可以更好地在全球范圍內(nèi)分享思想、電影和其他創(chuàng)意作品。
這將改善未來(lái)個(gè)性化營(yíng)銷和內(nèi)容宣傳的多樣性。換句話說(shuō),語(yǔ)言障礙會(huì)被打破,更多的內(nèi)容將以個(gè)性化的方式展示在受眾面前。
弊端:女性成為換臉色情片的主要受害者
布魯金斯學(xué)會(huì)技術(shù)創(chuàng)新中心治理研究非常駐高級(jí)研究員約翰·維拉森諾(John Villasenor)認(rèn)為,“Deepfake技術(shù)以一種最大限度地、利用社交媒體生態(tài)系統(tǒng)的方式將信息武器化了。”當(dāng)先進(jìn)的技術(shù)被濫用時(shí),它則會(huì)變成武器,在流量為王的時(shí)代傷害人們,無(wú)論是公眾人物或是弱勢(shì)群體,都無(wú)一例外。
2019年9月,阿姆斯特丹的一家致力于研究Deepfake不斷發(fā)展的能力和威脅的組織Deeptrace發(fā)表了一項(xiàng)對(duì)當(dāng)時(shí)在線傳播的近15000個(gè)換臉視頻的研究。
研究發(fā)現(xiàn),在發(fā)布的換臉視頻中,有96%是色情內(nèi)容,其中99%的內(nèi)容是女性名人的面孔。
2020年,在國(guó)外三個(gè)較大的色情網(wǎng)站上,一條“借用”了女演員艾瑪·沃特森的臉的色情視頻被觀看超過(guò)2300萬(wàn)次。其他擁有數(shù)十萬(wàn)或數(shù)百萬(wàn)觀看次數(shù)的換臉色情視頻也包括許多名人,如演員娜塔麗·波特曼、歌手碧梨和歌手泰勒·斯威夫特。
邁阿密大學(xué)法學(xué)教授瑪麗·安妮·弗蘭克斯(Mary Anne Franks)說(shuō):“這令人沮喪,其證實(shí)了我們這些聽(tīng)說(shuō)過(guò)這項(xiàng)技術(shù)的人一開(kāi)始就提出的所有恐懼?,F(xiàn)在你已經(jīng)看到了更可怕的現(xiàn)實(shí),無(wú)論你是否拍過(guò)裸照,或者是否與某人分享過(guò)任何類型的私密數(shù)據(jù),他們所需要的只是一張你的臉部照片。”
然而,目前國(guó)外針對(duì)換臉色情視頻的法律援助并沒(méi)有跟上技術(shù)的發(fā)展。事實(shí)上,它還沒(méi)有為人工智能生成的色情片所帶來(lái)的影響做好準(zhǔn)備,大多數(shù)訴訟過(guò)程都是繁重復(fù)雜的。
弊端:視頻假新聞讓“眼見(jiàn)”不再“為實(shí)”
當(dāng)新聞和人工智能結(jié)合,數(shù)字媒體的規(guī)模也被前所未有地放大了。這有可能為社會(huì)帶來(lái)新的好處,但也可能被濫用,錯(cuò)誤引導(dǎo)輿論。
當(dāng)視頻被AI換臉技術(shù)造假,扭曲現(xiàn)實(shí)的能力也有了指數(shù)級(jí)的飛躍。在人們的傳統(tǒng)認(rèn)知中,視頻影像捕捉到的東西是最無(wú)可爭(zhēng)辯的證據(jù),是最可信賴的媒體資源。然而當(dāng)合成視頻出現(xiàn),假新聞則變得更容易掩蓋真相,曾經(jīng)“眼見(jiàn)為實(shí)”的觀念也將逐漸崩塌。
例如,在疫情暴發(fā)期間,就曾有相關(guān)組織利用換臉技術(shù)合成視頻,發(fā)布關(guān)于新冠病毒的假新聞。比利時(shí)一家環(huán)保運(yùn)動(dòng)組織使用AI換臉和人工合成的技術(shù)改變了某位重要政府官員的一次講話,在這段重現(xiàn)了當(dāng)事人聲音和肖像的合成視頻中,數(shù)十篇關(guān)于全球變暖對(duì)地球造成影響的科學(xué)出版物被拼湊在一起,將新冠疫情編造為環(huán)境破壞的后果。
如果這樣的視頻假新聞滲透在各個(gè)社交媒體中,便會(huì)降低公眾對(duì)其他合法信源的信任,并增加被錯(cuò)誤信息或虛假信息誤導(dǎo)的風(fēng)險(xiǎn)。
弊端:新詐騙形式令人防不勝防
如今多數(shù)網(wǎng)友都擁有多個(gè)社交媒體的賬號(hào),如微博、微信或是抖音、知乎,賬號(hào)里也許會(huì)有許多自拍和視頻。在AI換臉技術(shù)的發(fā)展下,詐騙的形式也變得更豐富,讓人防不勝防。
不法分子不僅能夠偽造聲音騙取受害人的錢(qián)財(cái),甚至可以通過(guò)保存大量視頻并通過(guò)偽造人臉與嘴形以視頻對(duì)話的形式冒充他人并騙取錢(qián)財(cái)。
2019年,就有犯罪分子曾使用音頻假冒一家德國(guó)能源公司CEO與其英國(guó)分公司打電話,命令員工將大筆資金轉(zhuǎn)入其私人賬戶,最后騙取了22萬(wàn)歐元。此外,允許使用Deepfake技術(shù)模擬視頻通話的軟件也讓更多人暴露在電信詐騙的危險(xiǎn)之中。
降低偽造風(fēng)險(xiǎn)是一項(xiàng)長(zhǎng)期行為
Deepfake的濫用不斷給內(nèi)容創(chuàng)作行業(yè)帶來(lái)新挑戰(zhàn),并且已經(jīng)造成了負(fù)面后果。正如上文所列舉的色情內(nèi)容、假新聞的泛濫和網(wǎng)絡(luò)詐騙等。
那么,怎樣應(yīng)對(duì)這項(xiàng)技術(shù)帶來(lái)的威脅呢?這顯然是一項(xiàng)長(zhǎng)期行為。
在技術(shù)層面,隨著深度造假威脅的加劇,技術(shù)專家也正在努力開(kāi)發(fā)新的檢測(cè)方法。當(dāng)前狀態(tài)下對(duì)于Deepfake技術(shù)的檢測(cè)通常被形容為“貓捉老鼠”的游戲,該術(shù)語(yǔ)最初用于描述快速發(fā)展的網(wǎng)絡(luò)安全攻擊和防御之間的對(duì)抗,在AI換臉語(yǔ)境里的對(duì)抗性游戲則是指在Deepfake生成器和用于識(shí)別它們的學(xué)習(xí)檢測(cè)器之間的對(duì)抗。
例如,奧爾巴尼大學(xué) (SUNY) 的研究人員發(fā)表了一篇論文,概述了如何通過(guò)合成對(duì)象中是否眨眼來(lái)識(shí)別假視頻。因?yàn)锳I換臉的生成器很少在閉眼時(shí)接收輸入幀,所以在偽造視頻中人臉不會(huì)遵循自然閃爍的規(guī)律。像Facebook這樣的企業(yè)也在開(kāi)發(fā)機(jī)器學(xué)習(xí)模型來(lái)檢測(cè)視頻中是否有AI換臉技術(shù)的存在。
此外,區(qū)塊鏈技術(shù)能夠?qū)⒁曨l鏈接到可信/信譽(yù)良好的實(shí)體,雖然技術(shù)成本較高,但依舊是未來(lái)識(shí)別換臉視頻等一類Deepfake的有效工具。
在教育與媒體素養(yǎng)層面,越來(lái)越多的技術(shù)人員正在研究并披露Deepfake對(duì)社會(huì)公眾帶來(lái)的危害,當(dāng)人們了解合成媒介的存在和可能發(fā)生的事情時(shí),這種欺騙的可能性就會(huì)降低。例如,當(dāng)一個(gè)人熟知了偽造視頻下的特征缺陷,他們將能夠憑借自己的判斷來(lái)自行選擇該相信什么和不該相信什么。
在監(jiān)管層面,對(duì)于假新聞來(lái)源和有危害的不良信息,可以通過(guò)更有力的手段來(lái)加以約束,提高利用AI換臉技術(shù)進(jìn)行造假或犯罪的成本,壓縮不良信息的傳播空間。
總之,當(dāng)AI換臉這樣的功能越來(lái)越高深、越來(lái)越普及,技術(shù)對(duì)內(nèi)容的每一次細(xì)微影響都值得被捕捉、被記錄,以幫助人們?cè)跈C(jī)會(huì)來(lái)臨時(shí)迅速理解并搭上快車,并在風(fēng)險(xiǎn)隱患增加時(shí)有效感知并找到應(yīng)對(duì)方法。
本文為專欄作者授權(quán)創(chuàng)業(yè)邦發(fā)表,版權(quán)歸原作者所有。文章系作者個(gè)人觀點(diǎn),不代表創(chuàng)業(yè)邦立場(chǎng),轉(zhuǎn)載請(qǐng)聯(lián)系原作者。如有任何疑問(wèn),請(qǐng)聯(lián)系editor@cyzone.cn。