作者丨臨風(fēng)
編輯丨海腰
圖源丨SakanaAI官網(wǎng)
6月14日,由谷歌知名研究者David Ha和AI開創(chuàng)性論文作者之一Llion Jones建立的SakanaAI宣布完成Khosla Ventures、Lux Capital、NEA聯(lián)合領(lǐng)投的1.27億美元。這家公司成立于2023年7月,近半年融資2輪,上輪資方還包括NTT(日本電信巨頭)及索尼等。
據(jù)《朝日新聞》,SakanaAI在新一輪融資后估值約為1800億日元(11.42億美元),不到一年,成為日本增長速度最快的AI獨(dú)角獸。
“每個(gè)國家都需要占有自己的智力生產(chǎn),這就是為什么會有‘主權(quán)人工智能’這個(gè)概念。它編撰了你的文化、社會智慧、常識、歷史,因此你必須拿到這些數(shù)據(jù)、完善這些數(shù)據(jù),并擁有自己的國家情報(bào),你不能容許其他人這么做。”
黃仁勛在2月的World Government Summit提到了主權(quán)AI。再小的國家如果要專注一項(xiàng)人工智能,那么第一件事是建立“基礎(chǔ)設(shè)施”,將自己的文化、語言編入自己的大語言模型中。
來源:YouTube,WGS2024視頻截圖
這個(gè)道理對All in AI的日本而言是字字箴言,2023年他們舉全國之力搶跑AI賽道,各大名企訓(xùn)練AI模型,巨額押注“夢之隊(duì)”SakanaAI,旨在超越中美。不僅是日本,新加坡、印度、阿聯(lián)酋等國也在大力投資主權(quán)AI。
不到1年,估值11億美元
SakanaAI被稱作“東京AI夢之隊(duì)”,有著知名行業(yè)人才和新穎的創(chuàng)業(yè)理念。更為重要的是,他們是一家100%在日本注冊的公司。
SakanaAI的名字取自日文“魚”的意思,他們的logo是一簇魚群,他們旨在開發(fā)基于自然原理的人工智能,即許多小元素共同作用以產(chǎn)生大結(jié)果。
圖源:JAFCO
3月,SakanaAI宣布發(fā)布EvoLLM-JP(大語言模型)、EvoVLM-JP(視覺語言模型)和EvoSDXL-JP(圖像生成模型)這3種日語模型,后2者在Huggingface上可以在線試跑。從熱度來看,3類模型下載次數(shù)均未超1000次。
來源:HuggingFace
從實(shí)效來看,模型的生成能力還帶提升。作者使用其EvoSDXL-JP演示模型以日文“大和撫子”跑圖后發(fā)現(xiàn),生成圖像仍存在物種、性別上的錯(cuò)誤,及眼睛和腿腳顯示的誤差。在食物生成方面,模型生成效果好一些,更具美術(shù)效果。
圖1題詞:大和撫子,圖二題詞:浮世繪風(fēng)格的美味食物。注:生成時(shí)輸入語言為日語。圖源:EvoSDXL-JP測試模型生成效果
但模型生圖速度很快,約為5s/張,符合其推理僅需4步,速度比現(xiàn)有日本模型快10倍的說法,生圖風(fēng)格貼近題詞“日本浮世繪”。
短短幾月達(dá)到成效,SakanaAI團(tuán)隊(duì)游刃有余。6月,他們開始研究起新問題:“我們是否也可以使用LLM來提出更好的算法來訓(xùn)練LLM本身”,如果可以,這是最少人工干預(yù)的情況下優(yōu)化新算法的辦法。他們將與牛津大學(xué)和劍橋大學(xué)合作這個(gè)項(xiàng)目。
來源:SakanaAI Blog
SakanaAI能吸引到多種學(xué)界資源并不意外,它于2023年7月在東京成立,創(chuàng)始人是David Ha、Llion Jones和后期加入的Ren Ito,這三人都是業(yè)界知名人士。
左David Ha,右Llion Jones,來源:Lux Capital
David Ha是東京大學(xué)多學(xué)科博士,曾在高盛工作8年,成為Google Brain日本分中心的研究負(fù)責(zé)人,也是Google在職6年的研究科學(xué)家。他發(fā)布了多篇關(guān)于神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)、圖像生成、項(xiàng)目演示和論文,并在ACM、ICCV、ICLR、AAAI等頂會/頂刊發(fā)表。早在2018年他就有一篇與日本古典文學(xué)深度學(xué)習(xí)相關(guān)的論文發(fā)表于NeurIPS。
David曾擔(dān)任 Stability AI的研究主管,但不到1年確認(rèn)離職,同時(shí)期Stability AI高層變動(dòng),其時(shí)任COO Ren Ito也同時(shí)離職,目前兩人都在SakanaAI工作。他透露在日本創(chuàng)業(yè)的部分原因,一是日本尚未開發(fā)出有競爭力的大模型。二是在硅谷創(chuàng)業(yè)難以實(shí)現(xiàn)差異化。
SakanaAI的COO Ren Ito畢業(yè)于東大,是紐約大學(xué)的法學(xué)碩士及法學(xué)院高級研究員、斯坦福的文學(xué)碩士。他最先是在政界任職外交官,曾是日本外務(wù)省首席副主任,后在商界也有成就,助日本二手平臺Mercari策劃IPO,后前往Stability工作。
在Stability,他接觸到了人工智能模型生成的西方凝視和文化偏見,Ren Ito認(rèn)為每種文化、每個(gè)民族、每個(gè)國家都應(yīng)該建立自己的基礎(chǔ)模型。在日本運(yùn)營SakanaAI,也算是Ren Ito得償所愿。
來源:領(lǐng)英,Ren Ito
另一位Llion Jones是“Transformer 八子”的其中之一,他畢業(yè)于伯明翰大學(xué),在YouTube、Google工作過,直到去年才開始創(chuàng)立公司。他是人工智能界有開創(chuàng)性貢獻(xiàn)的論文《Attention Is All You Need》的第五作者(每名作者同等重要),該文介紹的Transformer深度學(xué)習(xí)架構(gòu),成為ChatGPT等產(chǎn)品開發(fā)的基礎(chǔ)。在知名AI人才不過百余人的當(dāng)下,Llion Jones坐鎮(zhèn)SakanaAI顯得意義非凡。
據(jù)IT Media,SakanaAI在1月融資后公布過一份創(chuàng)始成員名單,其中的Google含量極高,10個(gè)人里5個(gè)來自Google的主要AI研究機(jī)構(gòu),有3名來自Stability。
David在訪談中表示,今年2月他們在網(wǎng)上發(fā)布招聘信息的4天內(nèi)收到300分申請,有70%來自英國、美國、澳大利亞等非日本地區(qū)。
圖源:IT Media
團(tuán)隊(duì)陣容華麗,因此他們成立的第7個(gè)月就拿到了3000萬美元的融資,估值達(dá)到2億美元。SakanaAI在2024年1月獲得一輪資金,除了硅谷VC Lux Capital和Khosla Ventures外,還有日本的NTT集團(tuán)、KDDI、索尼集團(tuán)及JAFCO集團(tuán),還包括谷歌首席人工智能官Jeff Dean、Hugging Face創(chuàng)始人Clem DeLang、Scale AI創(chuàng)始人 Alex Wang的個(gè)人投資。
那時(shí),他們的模型還在研發(fā)階段,甚至還是一個(gè)概念。
Ren Ito介紹,他們在開發(fā)一條生成式AI的創(chuàng)新之路,用“自然啟發(fā)智能”的理念來實(shí)現(xiàn)低成本、強(qiáng)性能?!跋胂笠粋€(gè)蜜蜂群,工蜂離開蜂巢尋找資源,他們可以相互交流優(yōu)質(zhì)資源的位置,優(yōu)化資源利用?!?/p>
團(tuán)隊(duì)給出的專業(yè)解釋是,他們的算法可以通過在組合、測試和丟棄數(shù)據(jù)時(shí)模仿自然選擇,幫助自動(dòng)創(chuàng)建處理語言或圖像的AI模型,減少人工輸入量。他們跟OpenAI花數(shù)十億美元的訓(xùn)練方法形成鮮明對比,David設(shè)想的是,“我們希望用更少的計(jì)算將時(shí)間縮短到幾天或幾周,同時(shí)獲得相似的性能水平?!?/p>
官網(wǎng)稱,他們使用“進(jìn)化模型合并”來開發(fā)兼具性能指標(biāo)和穩(wěn)健性的大模型。
第一個(gè)好處便是節(jié)省算力。Medium用戶Bragi分析, “模型合并”即通過結(jié)合多個(gè)小模型的知識和能力來創(chuàng)建高性能模型,計(jì)算成本僅是小部分。最終生成的統(tǒng)一模型可以達(dá)到或超過幾個(gè)大模型的性能。
圖源:Medium
另外,這個(gè)過程類似于多個(gè)開源模型融合,類似自然進(jìn)化繁衍出下一代優(yōu)秀模型,無需人工干預(yù),且能青出于藍(lán)勝于藍(lán)。
進(jìn)化模型合并有效地自動(dòng)化模型構(gòu)建,不僅適用于語言生成,也適用于圖像生成。如他們的EvoSDXL-JP的構(gòu)建,由日語專用圖像生成模型合并英語基本圖像生成模型得到兼容日語的圖像生成模型(對應(yīng)表中模型6),再將其與更快的生圖模型合并,由此得到支持日語的高速圖像生成模型EvoSDXL-JP(對應(yīng)表中模型7)。
來源:SakanaAI Blog
SakanaAI極速開發(fā)、降本增效的方法論與日本渴望的速度契合。在其發(fā)布3個(gè)大模型后,又一筆新的融資快速啟動(dòng)。即使在3月,Sakana AI初期的合并模型效果不佳,日本政府和商界選擇持續(xù)投入。
在4月時(shí),SakanaAI是日本工業(yè)部“生成式AI加速器挑戰(zhàn)賽”七家獲得贈(zèng)款的實(shí)驗(yàn)室之一,并贏得了日本政府提供的超級計(jì)算機(jī)使用權(quán)資助,并與NTT和索尼等巨頭公司合作,建設(shè)日本人工智能的生態(tài)系統(tǒng)。此外,SakanaAI還瞄準(zhǔn)了政府機(jī)構(gòu)工作及國防工業(yè)的分包合同。
“(日本)公司應(yīng)該至少該擁有自己的基礎(chǔ)模型,即使這個(gè)模型的性能并不是特別好,”David開玩笑說道,“他們需要擁有屬于自己的傳真機(jī)?!?/p>
據(jù)Crunchbase,Sakana AI在6月完成由Lux Capital、NEA、Khosla Ventures聯(lián)合領(lǐng)投200億日元(約1.43億美元)融資,投后估值約11.5億美元。也正是因?yàn)檫@筆融資,Sakana AI沒有明確的核心產(chǎn)品,卻成為新興獨(dú)角獸。
SakanaAI是日本打造本土大模型的晉級之路上選擇的“明星戰(zhàn)隊(duì)”,在其舉國之力發(fā)展AI時(shí)備受矚目,獲得滿滿的期待和誠意。
主權(quán)AI預(yù)計(jì)“收入”100億美元
不僅僅是日本,世界各國都在對主權(quán)AI做出投資。
中美創(chuàng)企和巨頭在大模型上“卷生卷死”。中國研發(fā)的大模型數(shù)量全球第二,“你領(lǐng)跑,我緊追”的態(tài)勢已經(jīng)不用多說,國家是人工智能發(fā)展的有力支撐。
有外媒報(bào)道稱,一些國家自認(rèn)為在移動(dòng)互聯(lián)網(wǎng)和云計(jì)算革命中落后的國家,在此次AI浪潮中要設(shè)法保全本土文化與國家安全。
現(xiàn)任新美國安全中心的Pablo Chavez表示:“一些國家政府對生成式AI革命將如何影響經(jīng)濟(jì)感到萬分焦慮”。
這份焦慮正擊中了各國政府的痛點(diǎn),而唯有行動(dòng)能戰(zhàn)勝焦慮。
亞洲范圍內(nèi),今年4月,韓國、日本政府紛紛出臺政策投資AI領(lǐng)域。韓國的投入金額不少,約為9.4萬億韓元(69.4億美元),支持其成為半導(dǎo)體供應(yīng)大國的目標(biāo)。韓企巨頭們早早就研發(fā)了大模型,除了上述Naver的Hyper CLOVA,還有LG的Exaone,KT的Mi:DEUM(韓企開發(fā)的首個(gè)LLM)等,韓國大型電商、云服務(wù)企業(yè)與AI芯片公司合作共同參與政府項(xiàng)目。
新加坡是主權(quán)AI的投資大戶,也是英偉達(dá)的大買家。英偉達(dá)2023年第三季度業(yè)績指出,約15%(27億美元)收入來自新加坡,這與其本身具有多個(gè)數(shù)據(jù)中心和云服務(wù)提供商有關(guān)。據(jù)Crunchbase數(shù)據(jù),東南亞AI、機(jī)器學(xué)習(xí)、數(shù)據(jù)等相關(guān)業(yè)務(wù)公司約1354家,其中有866家都位于新加坡。
政策方面,新加坡在去年12月出臺政策NAIS2.0,要在未來投資超10億美元用于AI計(jì)算、人才和行業(yè)發(fā)展。而且,新加坡計(jì)劃要率先建一個(gè)基于東南亞語言訓(xùn)練的LLM。
眼光轉(zhuǎn)向電力基礎(chǔ)設(shè)施相對落后的印度。據(jù)數(shù)據(jù),印度AI大模型領(lǐng)域的公司還不到10家,獨(dú)角獸Krutrim的自研模型僅允許400多個(gè)字符輸入。印度政府在3月直接批準(zhǔn)了國家級“IndiaAI”項(xiàng)目,投入1030億盧比(12.4億美元)旨在實(shí)現(xiàn)“讓AI為印度服務(wù)”的目標(biāo),受主權(quán)AI的概念推動(dòng),希望建立一個(gè)全面的生態(tài)系統(tǒng)。
中東土豪選擇砸錢搞先進(jìn)科技。阿聯(lián)酋成立AI和先進(jìn)技術(shù)委員會(AIATC),今年3月AIATC宣布成立投資公司MGX,由穆巴達(dá)拉和G42共同合伙部署前沿技術(shù),投資集中在人工智能基礎(chǔ)設(shè)施、半導(dǎo)體和人工智能應(yīng)用3個(gè)領(lǐng)域,據(jù)稱資產(chǎn)規(guī)模在未來幾年超1000億美元。
沙特公共投資基金(PIF)計(jì)劃在AI領(lǐng)域投資400億美元,希望支持一系列初創(chuàng)、芯片企業(yè)和龐大的數(shù)據(jù)中心,甚至是沙特自己創(chuàng)辦人工智能公司。
肯尼亞在5月和G42簽了一份協(xié)議,在該國斥資10億美元建一個(gè)數(shù)據(jù)中心,以肯尼亞的地?zé)崮埽ü╇姡┯盟雇呶骼镎Z和英語訓(xùn)練一個(gè)AI模型。
不缺AI人才的加拿大在4月投入了24億加元(約17.7億美元),20億提算力建基礎(chǔ)設(shè)施,剩下的資金賦能初創(chuàng)和研發(fā)。一攬子發(fā)展AI的計(jì)劃推出,確保加拿大人工智能優(yōu)勢地位。
另一邊,歐洲的人工智能也在暗暗較勁。線性資本投資者黃松延在訪談中表示,歐洲是很多原創(chuàng)性技術(shù)的發(fā)源地,AI和機(jī)器學(xué)習(xí)領(lǐng)域的不少大牛藏在歐洲各個(gè)角落不為人知。如法國版OpenAI Mistral就在巴黎造出Mistral Large,推理任務(wù)不遜色GPT-4。
今年4月,歐盟委員會宣布將在人工智能領(lǐng)域投資6500多萬歐元,其中有5000萬用于擴(kuò)展大模型能力。法國、德國和意大利都在發(fā)力,法國總統(tǒng)馬克龍呼吁歐洲建立政府和社會資本合作買芯片,到2030年或2035年將歐洲全球GPU部署份額從3%提升到20%。
總的來看,各國政府、企業(yè)投資本地語言的模型、算力和數(shù)據(jù)中心,以免發(fā)展先進(jìn)AI技術(shù)受制于他國。模型較弱的國家在造地基,而已有強(qiáng)力模型的國家則在構(gòu)筑“護(hù)城河”鞏固地位。
這其中,賺錢的人將主權(quán)AI的概念變成了產(chǎn)品的USP。近半年,黃仁勛既參加了阿聯(lián)酋的WGS,又在去年9月會見了印度總理莫迪,12月與日本首相和新加坡總理會面,推動(dòng)政府或政府關(guān)聯(lián)單位、計(jì)算機(jī)基礎(chǔ)設(shè)施電信公司投資AI。
實(shí)際上,主權(quán)AI從商人黃仁勛口中說出時(shí),便帶有盈利性質(zhì)。早在2019年,英偉達(dá)就有一項(xiàng)“AI Nations”計(jì)劃幫助各國建立主權(quán)AI,包括生態(tài)系統(tǒng)支持和勞動(dòng)力發(fā)展。各國政府砸錢新建數(shù)據(jù)中心,用專門的計(jì)算機(jī)芯片改造舊數(shù)據(jù)中心,這類芯片大多來自英偉達(dá)。
據(jù)《華爾街日報(bào)》,英偉達(dá)在5月表示,主權(quán)AI戰(zhàn)略預(yù)計(jì)將在今年帶來近100億美元的收入,去年還是一片空白。英偉達(dá)公布的季度收入是260億美元,其中近一半來自使用其芯片的大型云計(jì)算公司。
CFRA的分析師Angelo Zino得出結(jié)論:“(英偉達(dá))面向云計(jì)算的銷售額顯然無法持續(xù)攀升,但它能通過其他方式從AI熱潮中獲利。創(chuàng)造更高收入,主權(quán)AI正是一個(gè)新的收入增長點(diǎn)?!?/p>
本文為創(chuàng)業(yè)邦原創(chuàng),未經(jīng)授權(quán)不得轉(zhuǎn)載,否則創(chuàng)業(yè)邦將保留向其追究法律責(zé)任的權(quán)利。如需轉(zhuǎn)載或有任何疑問,請聯(lián)系editor@cyzone.cn。