編者按:本文來自微信公眾號全媒派(quanmeipai),創(chuàng)業(yè)邦經(jīng)授權(quán)轉(zhuǎn)載。原文來源于《紐約客》,由全媒派編譯。
所有網(wǎng)絡(luò)社區(qū)都倡導公平、開放和共享的價值觀并希望保持絕對中立,但陰謀論、色情、暴力、仇恨言論等擦邊內(nèi)容總站在流量高峰。若算法一味順應(yīng)人性,只會加重平臺上的極端情緒,而如果平臺出手干涉內(nèi)容,邊界在哪里?
這是自互聯(lián)網(wǎng)誕生以來才出現(xiàn)的問題,我們無法從前人的案例中獲得經(jīng)驗。當下的平臺如何定義自己的身份,也將決定自己會如何被寫入歷史。
YouTube誕生第14年,平臺上每分鐘新增視頻素材長達500小時。根據(jù)個人喜好差異,算法為他們定制了最合適的內(nèi)容。當YouTube終于成為足以影響一代人的全球內(nèi)容平臺,終極問題出現(xiàn):平臺的所謂“中立”的邊界在哪里?YouTube將有一個怎樣的未來?
影響力時代,社交平臺的隱患
Maza vs Crowder,被擺上臺面的隱患
今年5月30日,vlogger、科技媒體Vox的評論家Carlos Maza在一條推文里指責YouTube的內(nèi)容審查和網(wǎng)絡(luò)暴力管理松散,很快刷屏。
Maza在視頻里指責一位擁有400萬YouTube粉絲的博主、喜劇演員Steven Crowder,稱其粉絲對自己發(fā)表了大量極端的侮辱性言論,尤其對Maza的種族和性取向出言不遜。
此前,Crowder在一條視頻里提及Maza,粉絲們便聞風而動,更早之前,Maza突然收到了無數(shù)條短信,上面全是“去和Steven辯論啊!”
Maza向YouTube平臺反映了這些狀況,無數(shù)次。然而,毫無回應(yīng)。
而Maza這條視頻,似乎是對YouTube社區(qū)規(guī)則的一次無情諷刺。
今年初,YouTube高管宣布再次重新考慮網(wǎng)絡(luò)言論的問題。長期以來,YouTube自詡言論自由、態(tài)度中立,允許用戶上傳任意視頻——哪怕視頻中表達對某些思想,比如陰謀論和新納粹主義的公開支持。
于是,YouTube CEO Susan Wojcicki表示,要帶領(lǐng)團隊完成兩大目標,一是擺脫外界對意識形態(tài)偏見的指控,二是保持公司價值觀,盡管二者互相沖突。
YouTube隨后發(fā)布了新政策,清算否定主義(比如對猶太人大屠殺和911事件的否定)和至上主義(比如宣稱白種人、男人優(yōu)于一切的言論)視頻。YouTube原計劃要在今年6月正式執(zhí)行新政策,但Maza在5月——支持LGBTQ群體驕傲月發(fā)布的推文,將YouTube的內(nèi)容審查問題擺在了大眾面前。
Maza發(fā)布視頻后,Crowder在推特和YouTube上回應(yīng),戲謔Maza就是“娘兒們”和“Vox Gay式”文化代表。這一邊,Maza的支持者存下了指控平臺的證據(jù)——Crowder的視頻依然有前貼片廣告,這表明平臺方依然會給熱門視頻提供流量分成,換句話說,平臺方隱晦地表明了對Crowder視頻的寬容。
在Maza的推文刷屏之后,Youtube方面表示必將自查。一周后,平臺稱,經(jīng)徹查,Maza指出的Crowder違規(guī)視頻并沒有違反社區(qū)準則。但第二天,平臺宣布新政策:違規(guī)視頻不再享受廣告分成,其中就包括Crowder。
處罰沒有讓任何人滿意。Maza希望平臺完全、永久移除Crowder的視頻;支持Maza的YouTube員工也站了出來,在推特和媒體上指責YouTube。
撰寫YouTube第一版社區(qū)指南的技術(shù)咨詢師Micah Schaffer說,“YouTube總是這樣,就像之前想用新的算法改變新聞傳播一樣,最后只是直接和‘壞新聞’合二為一了,變得更糟糕?!?/p>
其它前同事也很困惑,“YouTube到底在搞什么?”他們的的郵件、短信如潮水般飛到Schaffer這里。
YouTube到底怎么了
事實上,從一開始,仇恨言論就是YouTube上的一大隱患,Schaffer說,“只不過早期的解決方式相對直接?!?/p>
在2005年,YouTube早期創(chuàng)立時,創(chuàng)始人Chad Hurley、Steve Chen和Jawed Karim承擔了大部分的審核工作,一年之后才雇傭了一名兼職審查員。平臺對問題視頻做出移除處理,很少有人駁回。但14年過去,事情早已發(fā)生了變化。
YouTube母公司谷歌的CEO Sundar Pichai曾向科技媒體Axios表示,目前,YouTube的月活用戶超過20億,雇傭的審查員成千上萬,而每一分鐘上傳到Y(jié)ouTube上的新視頻,達500小時。
對于這種規(guī)模的平臺,面臨的技術(shù)、內(nèi)容審查挑戰(zhàn)前所未有。平臺面臨的根本問題并不是YouTube的商業(yè)模式,深層原因是社交媒體發(fā)展成了什么樣子,以及它本應(yīng)該是什么樣子。
技術(shù)無法解決一切問題
或許是因為社交平臺龐大的規(guī)模,人們天然認為,技術(shù)就是仇恨言論的最佳解決方法——它相對沒那么明顯,程序員會在幕后默默解決棘手的問題。理論上說,平臺會不斷對算法進行微調(diào),降低仇恨言論和陰謀論的權(quán)重,但在實際執(zhí)行中,難度比想象中更大。
視頻中出現(xiàn)明顯的語言或標識的仇恨內(nèi)容可以直接移除,但擦邊球內(nèi)容卻很難被檢測到,因此無法阻止大規(guī)模傳播。目前,機器學習技術(shù)也在嘗試分辨真正的仇恨言論和批判仇恨言論視頻的區(qū)別。
還有一種解決仇恨言論的方式,是自動化系統(tǒng)利用元數(shù)據(jù)標記出有害內(nèi)容,通過收集某個用戶的發(fā)布頻次,某個視頻在短期內(nèi)獲得的評論數(shù),找到有害內(nèi)容的內(nèi)在關(guān)聯(lián)性。但其限制性在于,只關(guān)注了平臺上的內(nèi)容,忽略了它煽動起來的互動。
除了技術(shù)限制,科技公司雇傭了大量人力,判斷視頻里的細微差別。在YouTube,他們被稱作評級人(Raters),身份匿名,評估視頻內(nèi)容,還會幫助訓練推薦系統(tǒng)。但有害內(nèi)容的反噬也隨之而來:大量瀏覽和篩選有害視頻,引發(fā)了審查員的心理問題。
今年初,YouTube宣布要更關(guān)注用戶的反饋,包括調(diào)查結(jié)果,點“喜歡”和“不喜歡”的數(shù)據(jù),以幫助系統(tǒng)標記視頻的質(zhì)量。然而,2016年YouTube工程師撰寫的一篇白皮書卻表示,這些指標意義并不大:
相較于類似用戶點擊什么視頻、觀看時長這種模糊反饋,用戶能給出的明確反饋少之又少;更甚的是,平臺的主要用戶群體,青少年,卻常常只給出一些惡搞的調(diào)研答案。
商業(yè)與內(nèi)容之間不可調(diào)和的矛盾
商業(yè)上的挑戰(zhàn)也加劇了技術(shù)的難度。
往大了說,任何以抑制用戶互動為目的的調(diào)整,都可能和YouTube的商業(yè)模式相悖。作為YouTube主要對手的Netflix,通過對優(yōu)質(zhì)內(nèi)容的采買編輯,打造了讓人上癮的爆款,帶來訂閱用戶的一路走高;相比而言,YouTube強調(diào)的UGC內(nèi)容,只能通過自動化推薦系統(tǒng)將內(nèi)容串聯(lián)起來。
事實上,YouTube一直在不斷調(diào)整,但平臺方始終不愿公布調(diào)整細節(jié)。不過,2018年的一篇文章透露出一些平臺規(guī)則:用戶開始觀看視頻后,系統(tǒng)將在設(shè)定下“對該選題視頻進一步深挖,吸引用戶掉進‘兔子洞’而無法自拔”。
研究人員對此表達了不滿:平臺算法雖然增加了用戶黏性,但也進一步放大了平臺上的仇恨言論和陰謀論。系統(tǒng)挖得越深,令人不適的推薦越可能浮出水面。舉個例子,如果一直推薦“登月”視頻,那關(guān)于“登月造假”的視頻也會相應(yīng)地出現(xiàn)。
詹姆斯麥迪遜大學的傳媒學者Fancesca Tripodi對陰謀論者如何在互聯(lián)網(wǎng)上持續(xù)傳遞假消息做了深入研究:如果平臺某一“兔子洞”為空,持續(xù)生產(chǎn)上傳相關(guān)內(nèi)容填滿這個話題,就能左右其方向。在4月的參議院委員會上,她表示,“當只有有限的或者沒有元數(shù)據(jù)匹配某特定話題時,很容易圍繞關(guān)鍵詞進行調(diào)整,以保證谷歌反饋的信息類型(是我們想要的內(nèi)容)?!?/p>
煽動分子可能利用信息缺失,使自己的視頻出現(xiàn)在真正的新聞推薦中,而具有爭議和獵奇性質(zhì)的視頻往往更有吸引力,它們會被推薦系統(tǒng)打上“高互動性”的標簽,也更容易有露出機會。而往往,平臺的自動化系統(tǒng)都會做出同樣的推薦。
YouTube平臺是保持中立的嗎?
對于用戶而言,社交媒體的價值常常和開放性有關(guān)。草根用戶組成了線上社區(qū),他們創(chuàng)造內(nèi)容又反過來服務(wù)于普通用戶,這是大家樂于見到的現(xiàn)象。
然而,算法和管理者,一步步重新塑造了社交媒體平臺的民主中立性。
YouTube創(chuàng)辦初期,員工手工篩選出爆款,掛在首頁的“時下流行”一欄里。所以,誰漲粉,誰爆款,完全由平臺說了算。
此外,人工篩選也塑造了平臺氣質(zhì):當某一類型內(nèi)容獲得更多曝光,自然向創(chuàng)作者傳達出一種信息——這種內(nèi)容在平臺上更受歡迎。Schaffer回憶起創(chuàng)立初期的平臺內(nèi)容,當時平臺最推崇的是家庭向,無版權(quán)風險,且有吸引力的內(nèi)容。
并不中立的創(chuàng)作者革新計劃
2016年,YouTube大力推出“創(chuàng)作者革新”計劃(Creators for Change),讓更多有社會責任感的創(chuàng)作者加入其中,YouTube市場營銷經(jīng)理Paul Marvucic認為,他們組成了一個社會影響力團體,“相信創(chuàng)作者,這是我們的核心價值觀。”
去年12月,谷歌CEO Sundar Pichai在國會上接受議員對社交媒體平臺的政治影響力的提問,Pichai表示,“打造一個無偏見的平臺,對我們非常重要?!?/p>
話雖如此,實際上,創(chuàng)作者革新計劃卻要求YouTube必須選擇一種意識形態(tài)站邊。去年秋天,為紀念聯(lián)合國人權(quán)宣言發(fā)布十七周年,YouTube在聯(lián)合國的經(jīng)濟社會論壇上舉辦了一場面向大中學生的活動,5名創(chuàng)作者作為大使,和聯(lián)合國人權(quán)事務(wù)高級專員辦事處處長Craig Mokhiber一起出現(xiàn)在臺上。這無疑是一種站邊。
整個2018年,YouTube招募了47名大使,投入近500萬美元,除了邀請博主參與,另一部分投入學校,幫助學生應(yīng)對煽動性視頻。YouTube內(nèi)部人士透露,2018年,大使們的視頻帶來了數(shù)萬的觀看時長。很多觀眾通過觀看創(chuàng)作者革新計劃的視頻看到Y(jié)ouTube的自動化廣告:這也意味著,平臺在其中同時也實現(xiàn)了盈利。
被扶持創(chuàng)作者的兩種“命運”
在創(chuàng)作者革新計劃中,一名創(chuàng)作者是來自孟買的喜劇明星Prajakta Koli(頻道:MostlySane),她有400萬粉絲,她經(jīng)常在視頻里展現(xiàn)在大學餐廳碰到的暴躁人士,或是約會陷阱里的外國人。
她的內(nèi)容都圍繞這一個主旨,“不冒犯”(No Offense)。
在一個MV里,Koli穿著睡衣,沒精打采窩在沙發(fā)里,鏡頭另一邊,是她一人分飾多角,扮演恐同者、厭女癥和網(wǎng)絡(luò)暴民。接下來,沙發(fā)上的自己戴上拳擊手套,在rap battle中挨個擊倒了“自己”。
這條視頻已經(jīng)有1200萬觀看量,是Koli最受歡迎的一條視頻。后來,Koli開始嘗試聊一些更“重”的選題了,比如從自己出發(fā),聊聊離婚和身材羞辱。
于是,YouTube開始運營相關(guān)話題,在“不冒犯”的內(nèi)容上投入了相關(guān)的營銷預(yù)算,在平臺幫助下,Koli的視頻大獲成功。
第二個案例來自AsapScience,前高中教師Gregory Brown和男朋友Mithcell Moffit共同創(chuàng)辦的科普動畫頻道。
通過YouTube創(chuàng)作者革新計劃提供的資金,倆人制作了一條關(guān)于科學評估種族主義影響的視頻。這個耗時一周制作的視頻,圍繞內(nèi)容展開的種族主義相關(guān)的錯誤信息和惡意討論卻長達七八個月。Brown說,在這方面,平臺需要優(yōu)化,需要做更精準的推薦。
比起那些毫不費力的有毒內(nèi)容,Brown制作的研究結(jié)果、調(diào)研參數(shù)、最終結(jié)論的視頻,往往顯得沒意思,這是個很大的挑戰(zhàn)。
最近,科普視頻AsapScience的創(chuàng)作者Gregory Brown表達了他對平臺無法有效治理仇恨言論的失望,但他也意識到,YouTube擁有的全球影響力,決定了面臨問題的棘手性,“既要盈利,又要審查,還要保持價值觀,平臺希望三者并行”,不過,對他而言,“在如此龐大的用戶體量下做科普,對我而言非常重要,我依然認為YouTube會是我的最佳選擇?!?/p>
有害言論治理:努力維持卻無法中立
長久以來,YouTube上的病毒傳播視頻被大量的“復讀機”模仿。對于這種生態(tài),YouTube希望創(chuàng)作者革新計劃能發(fā)揮模范帶頭作用。
這招雙管齊下。陰謀論視頻的高點擊會使視頻創(chuàng)作者選擇生產(chǎn)相似的視頻;反過來,“創(chuàng)作者革新計劃”的大使們會將一些正向視頻作為靈感。理論上,只要在平臺上宣傳YouTube會給予關(guān)注社會正義的內(nèi)容以創(chuàng)作補貼和免費推廣渠道,將會促進譴責仇恨言論的視頻數(shù)量激增。
不過,對于如YouTube一般的平臺,很有可能出現(xiàn)所謂的“言論對立(counter speech)”。密歇根大學社交媒體責任中心的計算機科學教授Libby Hemphill研究不同場景下談話的差異,她提到,為了打擊陰謀論,言論對立必須存在。
“推薦系統(tǒng)提供的內(nèi)容,不只會提供我們想要看的內(nèi)容,還會隱藏起那些我們并不積極主動去尋找的內(nèi)容。而偶然接觸不知道的內(nèi)容正好是我們需要的內(nèi)容,但這個概率非常低。”簡而言之,鼓勵好內(nèi)容還不夠,還需要讓不主動找內(nèi)容的人,也聽到對立的聲音。
理論上說,YouTube可以點對點的方式動態(tài)打擊仇恨言論。近幾年,平臺也確實利用“重定向方法(Redirect Method)”對恐怖主義內(nèi)容進行打擊:內(nèi)容審查員會移除恐怖分子招募視頻,與此同時,招募視頻的搜索結(jié)果將重新定向到反恐怖主義和反極端主義的視頻。
在之前的“重定向”平臺治理方案中,一位YouTube代表透露,平臺并不準備將男權(quán)內(nèi)容重新定向至女性主義者支持的創(chuàng)作者革新計劃的內(nèi)容。公司或許會擔心,用對待恐怖主義相同的方法對待厭女癥,可能打破YouTube試圖建立一個無偏見社區(qū)的初衷。
另一種讓言論對立更高效的方法應(yīng)該是抑制為對立而對立的言論。今年三月,一個宣揚白人至上極端分子在新西蘭基督城對一座清真寺展開了大規(guī)模毒殺,而這條視頻迅速在社交網(wǎng)絡(luò)上以病毒速度擴散開來。YouTube前主管Hunter Walk在Twitter上表示,平臺應(yīng)該保護的是“言論自由”,而不是內(nèi)容的“觸達自由”。
他建議,YouTube應(yīng)該在推薦系統(tǒng)中降低有害內(nèi)容的權(quán)重,減少推薦,本質(zhì)上說,這樣做可以“限流(shadowban)”來減少這些有害內(nèi)容——用戶可能不會知道自己搜索的內(nèi)容已經(jīng)被隱藏了,不受歡迎的用戶被“低調(diào)”隱藏。理想情況下,由于內(nèi)容被限流,能觸達的用戶有限,可能讓這些創(chuàng)作者感覺受挫,然后嘗試其它方式。
限流其實是一種來歷已久的審查工具,很長時間以來,互聯(lián)網(wǎng)論壇版主都通過限流來減少垃圾內(nèi)容和網(wǎng)絡(luò)騷擾。
不過,在大型的社交媒體平臺上,“限流”并不針對個人,而是針對被算法挑選出的內(nèi)容。YouTube曾經(jīng)發(fā)布過一份社區(qū)指南的清單,針對“無益處的極端血腥或暴力”,或是假裝理性、禮貌或?qū)W術(shù)口吻去支持仇恨思想的視頻,評級員都會給予低評級。
隨后,平臺的AI系統(tǒng)根據(jù)評級結(jié)果進行機器學習,減少爭議性視頻出現(xiàn)在推薦系統(tǒng)中的概率。在這個過程中,個人用戶不一定知道自己的視頻如何受到影響。
但系統(tǒng)的不明確性使得大眾質(zhì)疑。
今年4月,Ted Cruze組織了參議院小組委員聽證會,會議主題為“扼殺言論自由:技術(shù)監(jiān)管與公共話語”,Ted提出,要對平臺進行監(jiān)管,甚至帶來了證人,指責平臺的自由主義偏見。
受Cruze邀請參與庭審會的一名成員Eugene Kontorovich是喬治曼森大學的法學教授,他在證詞中表示,他考慮了監(jiān)管是否能真正解決搜索和社交平臺上的偏見問題,但解決潛在偏見的最佳方式反而是透明化。限流或許有效,但同時會導向偏執(zhí)。比如,透明化的創(chuàng)作者革新計劃,由于其視頻得到了明顯的標記,增加了項目的吸引力。
不過,YouTube和其它公司的工程師反對算法公開,原因很多,但共識在于,算法黑箱才很難被利用。而曾在法國政府工作,為官方對網(wǎng)絡(luò)仇恨言論的處理提供咨詢的計算機科學教授Serge Abiteboul認為,公開可驗證好過于不清不楚。
平臺方曾聲明,自從1月改進算法后,推薦系統(tǒng)中含擦邊內(nèi)容和仇恨言論的視頻已經(jīng)減少了一半,然而,由于缺乏透明度和監(jiān)管,這一結(jié)果也很難確認。在Abiteboul看來,大眾所接受的任何監(jiān)督都好過于平臺自己出臺的非公開政策。
平臺堅持中立是一種“斯德哥爾摩綜合征”嗎?
回顧YouTube的整個發(fā)展,Schaffer認為,他知道YouTube在哪一步行差踏錯。
在來到Y(jié)ouTube工作之前,他曾經(jīng)在一家以販賣令人震驚的圖片和視頻的網(wǎng)站工作,這個網(wǎng)站上充斥著各種可怕的事故、醫(yī)療缺陷,這些內(nèi)容在疏離大眾的同時,吸引到一小撮狂熱用戶?!氨然岷图{粹主義有一種寒蟬效應(yīng)?!?/p>
而YouTube,希望通過突出更大眾的內(nèi)容,與其它內(nèi)容社區(qū)區(qū)分開來,創(chuàng)造一個人人都樂于表達的社區(qū)。
所以,平臺會決定主推和禁止的視頻,也將一些擦邊視頻移除主頁,但它依然給了有害內(nèi)容一個小空間。當時他們認為,如果只是隔離擦邊內(nèi)容,它也不會對正常的內(nèi)容消費有影響,即便有,多數(shù)人也會立刻意識到,這種內(nèi)容不對。聽上去很理想,但過去這些年發(fā)生的事故卻告訴Schaffer,他的設(shè)想完全是個錯誤。
推薦系統(tǒng)效率的提高,讓很多有毒內(nèi)容重新暴露在了陽光下,這是YouTube早期的規(guī)則設(shè)定者們從未預(yù)料到的情況。
最終,這些擦邊內(nèi)容完全改變了平臺的初心和產(chǎn)生的影響。Schaffer發(fā)現(xiàn),當初設(shè)定時的基礎(chǔ)前提有缺陷,“我們不需要YouTube告訴我們還有這么一群人存在,言論對立也不是合理的負擔,垃圾內(nèi)容的打擊難度比傳播高很多,作為平臺,早該對此有所作為?!?/p>
一些專家指出,算法調(diào)整、鼓勵對立都無法改變YouTube的基礎(chǔ)架構(gòu),其核心是鼓勵大眾上傳海量視頻,即便來路不明。而這種架構(gòu),本質(zhì)上就無法和正常的民眾對話相容。
對于平臺上存在讓人無法自拔的內(nèi)容“兔子洞”導致了用戶行為激進化,YouTube并不承認。無論研究人員觀點如何,在YouTube上,極端視頻既不會有更多互動,也不會受到算法的青睞。與此同時,YouTube也表示,已經(jīng)對推薦系統(tǒng)進行了調(diào)整,擦邊內(nèi)容的搜索結(jié)果將重新定向到權(quán)威信源,比如CNN、??怂沟?。
據(jù)《紐約時報》近期的報道顯示,YouTube的算法會鼓勵用戶觀看更多樣化的新內(nèi)容,在新的調(diào)整中,平臺將加強對推薦系統(tǒng)的管控,防止個別頻道的爆發(fā)式推薦。
據(jù)反誹謗聯(lián)盟的調(diào)查顯示,2018年,有53%的美國人表示曾遭受網(wǎng)絡(luò)仇恨言論和騷擾,于是,用戶用減少使用時間和卸載App的方式表達不滿。去年谷歌和斯坦福大學共同發(fā)布的一份研究表示,將有害內(nèi)容定性為“能讓你終止談?wù)摰拇拄?、不尊重或不合理的評論”。
在YouTube的創(chuàng)作者革新計劃中,加入了一項教學計劃,鼓勵學生用視頻發(fā)聲,讓同類聚到一起。之后,年輕人通過視頻發(fā)聲,抨擊有害內(nèi)容,吸引到了不少粉絲。
那么,既然YouTube推出創(chuàng)作者計劃的原因是鼓勵用戶創(chuàng)作正向的內(nèi)容,為什么不能直接通過重定向系統(tǒng)將仇恨言論的搜索結(jié)果定向正向內(nèi)容呢?在YouTube看來,他們不愿意主動“挑選優(yōu)勝者”。
計算機科學教授Libby Hemphill卻表示,“我希望他們意識到,平臺所做的,就是挑選優(yōu)勝者。哪怕是深度學習算法,其作出的決定也完全由人類來定義。那么,平臺的確應(yīng)該可刻意挑選出不同的優(yōu)勝者?!倍鳶chaffer認為,平臺所堅持的中立性,不過是一種“斯德哥爾摩綜合征”,“他們擔心這么做會惹惱了頭部創(chuàng)作者,這種強加的價值觀,已經(jīng)妨礙了創(chuàng)作者們?!?/p>
創(chuàng)作者革新計劃對“正向偏見”的開放態(tài)度,提供了另一種對社交平臺的思考。平臺可以像一個聯(lián)合國的論壇,而不只是一個不切實際理想化的中立烏托邦。事實上,平臺可以成為一個建立在對人格尊嚴和普遍權(quán)利共識上的討論和磋商。
“失控”的YouTube將如何被寫入歷史?
多年后,創(chuàng)始人之一陳士駿(Steve Chen)還是會回憶起剛創(chuàng)業(yè)時的場景——他要從被算法遺棄的視頻“角落”里手動高亮優(yōu)質(zhì)視頻,比如被偶然記錄下的卡特琳娜颶風導致的災(zāi)難現(xiàn)場,極端的時候,被挑出的視頻只有25次播放。
“如果沒有YouTube,非洲攝影師的作品無法被全世界看到,而這正是我的工作重點。”
當初做內(nèi)容編輯的陳士駿認為,像是颶風災(zāi)難或襲擊現(xiàn)場這些非專業(yè)的UGC內(nèi)容,只有YouTube上有。
11年后推出的“創(chuàng)作者革新”計劃,聽上去似乎是陳士駿的進階計劃:精選好的內(nèi)容,向用戶傳達一種信息——這是我們需要的好內(nèi)容。
然而,技術(shù)的發(fā)展和全球化的擴張,讓當初的愿景變得越來越模糊,“無論平臺上的好內(nèi)容如何,這最終都是算法所決定的。如果你喜歡某一種內(nèi)容,那么平臺會從上億內(nèi)容中再精選出幾十條,你還是會喜歡嗎?算法可不會無緣無故做選擇?!?/p>
十年前,陳士駿離開了YouTube,他一點也不后悔放棄掌門人的位置,甚至有些慶幸,面對失控的內(nèi)容,“我不知道可以有什么解決辦法?!?/p>
而希望平臺對觀點進行挑選的Brown表示,“如果算法透明化,平臺盈利會減少,連帶著的,是它的影響力。”
所謂的“中立”價值觀,邊界在哪里?這對于YouTube,以及眾多社交平臺而言,都是一個巨大的考驗,如何應(yīng)對這個挑戰(zhàn),決定了平臺將如何被寫進歷史。這聽起來有些殘酷,但現(xiàn)實的確沉重。
本文為專欄作者授權(quán)創(chuàng)業(yè)邦發(fā)表,版權(quán)歸原作者所有。文章系作者個人觀點,不代表創(chuàng)業(yè)邦立場,轉(zhuǎn)載請聯(lián)系原作者。如有任何疑問,請聯(lián)系editor@cyzone.cn。