五月天成人小说,中文字幕亚洲欧美专区,久久妇女,亚洲伊人久久大香线蕉综合,日日碰狠狠添天天爽超碰97

湖南95后女博士,力挑谷歌,要造思考時"不發(fā)燒"的AI

陸兮科技
廣東人工智能
類腦大語言模型研發(fā)商
最近融資:|2025-01-06
我要聯(lián)系
研發(fā)首個國產(chǎn)類腦模型,要用一個饅頭的熱量完成萬瓦電力運算

圖片

作者丨黎曉梅

編輯丨劉恒濤

一個饅頭的熱量(約20瓦),就能完成需要上萬瓦電力的運算?

這是陸兮科技沖擊的目標(biāo)。陸兮科技在2023年由兩位95后女性創(chuàng)立,是國內(nèi)首家“類腦計算生態(tài)鏈”企業(yè)。2024年,陸兮科技推出了首個非Transformer架構(gòu)、采用類腦技術(shù)路線的國產(chǎn)自研大模型—NLM模型。NLM模型高效低能耗,推理效率提升了數(shù)倍,能耗卻降低了80%以上。

目前,該模型已通過國家網(wǎng)信辦“生成式人工智能服務(wù)”、“深度合成算法服務(wù)”兩項備案,獲準(zhǔn)上線公開運行。

作為Transformer架構(gòu)的挑戰(zhàn)者之一,陸兮科技以類腦算法搭建全自研架構(gòu),力爭突破Transformer的技術(shù)壟斷,以及對英偉達(dá)等高制程芯片的依賴。在宏大的目標(biāo)前,陸兮科技的底氣何在?

圖片圖片挑戰(zhàn)Transformer 做主權(quán)AI

2017年谷歌提出的Transformer架構(gòu),帶動了新一輪AI工業(yè)革命。通過自注意力機(jī)制和位置編碼,Transformer成為了大模型主流算法底座,引領(lǐng)了AI的未來。

但如今,Transformer的影響正在減弱。由于計算復(fù)雜度高、訓(xùn)練和部署成本居高不下、依賴高性能的GPU和大量存儲空間,Transformer架構(gòu)所需的算力競爭難以為繼。

陸兮科技創(chuàng)始人兼CTO周芃舉例,Transformer 遵循暴力解法,每推出一個新的Token,就必須回溯所有的Token。就像是讓AI讀了一本書,之后每回憶書中的部分內(nèi)容,AI就要把全書內(nèi)容全部再讀一遍,由此帶來了大量算力消耗。

一場針對Transformer架構(gòu)的挑戰(zhàn)正拉開帷幕。挑戰(zhàn)者包括微軟和清華推出的RetNet;卡內(nèi)基梅隆大學(xué)和普林斯頓大學(xué)研究團(tuán)隊推出的Mamba;華中科技大學(xué)、字節(jié)跳動和香港大學(xué)推出的Liquid架構(gòu)等。

挑戰(zhàn)者有一個共同的思路:讓底層架構(gòu)算法降本增效。周芃認(rèn)為,陸兮科技采用的“類腦算法”技術(shù)路線具有顯著優(yōu)勢。“人工智能的浪潮,最初是由大腦的啟發(fā)開始的。人腦是當(dāng)今運算能效比最強、能耗最低、成本最低的計算單元。目前人工智能領(lǐng)域的頂尖學(xué)者們都有一個共識,他們認(rèn)為下一代人工智能是向大腦靠齊的?!?/p>

類腦架構(gòu)的本質(zhì),是模仿人腦的神經(jīng)元結(jié)構(gòu)和功能,實現(xiàn)高效的運算與存儲機(jī)制。和Transformer的暴力解法不同,人腦在運算時僅調(diào)取直接相關(guān)的神經(jīng)元,其余神經(jīng)元處于休眠狀態(tài),這樣就能減少無效計算。還是以讀書做比喻,類腦架構(gòu)大模型可以直接定位到相關(guān)章節(jié),無需從頭到尾再讀一遍。

圖片

圖:類腦模型的參數(shù)量級 + 款型

“我們大腦只耗20瓦的功耗,但現(xiàn)在的算力中心,搭載Transformer架構(gòu)大模型,完成同樣的計算,可能耗上萬瓦的電。類腦計算是下一代AI的關(guān)鍵?!?周芃表示,Transformer是驅(qū)動了上一輪AI工業(yè)革命的蒸氣機(jī),但其已過時。新一代類腦架構(gòu)才是真正能夠帶領(lǐng)人類走向通用人工智能的高速鐵路。

周芃是湖南人,1996年出生,16歲考上華中科技大學(xué)啟明實驗班,2022年,在加州大學(xué)圣克魯斯分校獲得博士學(xué)位。畢業(yè)前后,周芃在多家海外頂尖實驗室與人工智能企業(yè)工作,進(jìn)行類腦智能研究。她發(fā)表了多篇論文,獲得了多項專利,在多個頂級期刊和會議擔(dān)任審稿人,還是多個海內(nèi)外開源大模型社群的核心貢獻(xiàn)者與首要研發(fā)者。

周芃的研究興趣橫跨類腦硬件設(shè)計與類腦軟件算法,在軟件硬件雙向定制研發(fā)、交叉賦能、提升AI軟件硬件匹配程度上取得了全球獨家學(xué)術(shù)成果。2023年,國際電氣電子工程師協(xié)會(IEEE)向周芃頒發(fā)了電路與系統(tǒng)領(lǐng)域年度最高學(xué)術(shù)獎項“達(dá)靈頓獎”(The Darlington Award)。時年27歲的周芃,是該獎項設(shè)立以來最年輕的得主。

周芃一直關(guān)注國內(nèi)主權(quán)AI的發(fā)展,加上西方國家對華裔科研人員的區(qū)別對待,她決定回國創(chuàng)業(yè)。周芃認(rèn)為,在國際AI競爭的大背景下,中國必須做主權(quán)架構(gòu)模型?!盀槭裁从邪沧?,我們還要做鴻蒙?為什么有英偉達(dá),我們還要做昇騰?自研架構(gòu)是主權(quán)問題?!?/p>

2023年,周芃和學(xué)生時代結(jié)識的好友汪博倫,一起回國,在深圳成立公司,汪博倫任CEO,周芃擔(dān)任CTO。公司名字“陸兮科技”,取自第一位直立行走的人類“Lucy”。

圖片

打破對英偉達(dá)的依賴 能耗降低80%

類腦架構(gòu)的落地,是一場橫跨算法、芯片與半導(dǎo)體的“極限挑戰(zhàn)”。算法上,要模擬人腦的稀疏計算;芯片設(shè)計要存算一體,還要突破國產(chǎn)低制程芯片的性能瓶頸。

“傳統(tǒng)的AI以數(shù)據(jù)驅(qū)動為主,但人腦的計算和存儲不是完全分開的,大腦是存算一體的結(jié)構(gòu)。”周芃說道。因此,陸兮科技的業(yè)務(wù)涉及類腦架構(gòu)搭建、大模型研發(fā)、存算一體研究,以及類腦硬件開發(fā)。

然而,類腦架構(gòu)的算法、芯片,乃至半導(dǎo)體都存在瓶頸。周芃說,現(xiàn)在是摩爾定律的黃昏,但做類腦架構(gòu)的大模型,就要將算法、芯片的難點全部同步突破。

陸兮科技有一支具備芯片-算法協(xié)同設(shè)計經(jīng)驗的團(tuán)隊,團(tuán)隊成員來自加州大學(xué)圣克魯茲分校、麻省理工大學(xué)、清華大學(xué)、華中科技大學(xué)、電子科技大學(xué)、中國地質(zhì)大學(xué)等海內(nèi)外高校,擁有谷歌、中美相關(guān)類腦芯片公司的工作經(jīng)驗。通過“自研芯片”+“軟硬適配”的思路,陸兮科技試圖打破大模型對英偉達(dá)芯片的依賴。

一方面,陸兮科技在國產(chǎn)成熟制程上研發(fā)了大模型定制化FPGA芯片,在先進(jìn)制程上研發(fā)了性能強大的大模型ASIC芯片。通過元器件層面的存算一體集成,實現(xiàn)元器件合二為一,打破AI芯片性能“唯制程論”,喚醒了成熟芯片的性能冗余,用國產(chǎn)AI芯片走出了一條突圍之路。

另一方面,陸兮科技與華為、海光等芯片廠商和全國各地的超算、智算中心積極聯(lián)動,開展模型+芯片軟硬件一體化適配,讓類腦架構(gòu)能在鋪貨量極大的國產(chǎn)成熟芯片上跑起來。

圖片

圖:陸兮科技智能硬件產(chǎn)品

2024年2月,成立一年的陸兮科技,完成“類腦大模型”底座模型研發(fā),隨后推出了全流程自主研發(fā)的NEURARK類腦架構(gòu)?;贜EURARK類腦架構(gòu),陸兮科技研發(fā)了底座模型、通用模型、行業(yè)垂類模型、端側(cè)離線模型等多條產(chǎn)品線,滿足不同行業(yè)的場景的多樣化需求。

與Transformer架構(gòu)相比,NEURARK類腦架構(gòu)運用稀疏激活機(jī)制、隱狀態(tài)管理、無矩陣乘法架構(gòu)等核心技術(shù),精準(zhǔn)復(fù)刻大腦運算與存儲機(jī)制,讓大模型像人腦一樣,僅激活相關(guān)神經(jīng)元進(jìn)行計算和存儲,從而減少無效計算。

這樣的架構(gòu),在算力消耗、能源消耗、存儲占用、上下文長度、問答響應(yīng)延遲等多個維度,實現(xiàn)了數(shù)倍的性能提升。

周芃說,NEURARK類腦大模型在推理效率上較傳統(tǒng)模型提升數(shù)倍,能耗降低80%以上。這一優(yōu)勢使其在低制程芯片上的部署表現(xiàn)更為突出,大模型可在包括FPGA在內(nèi)的低制程+低功耗芯片上,實現(xiàn)10B量級的大規(guī)模部署。這對于降低大模型算力與能源消耗、打破芯片行業(yè)壟斷有重大意義。

“我們的類腦模型產(chǎn)品線,每款產(chǎn)品都有一個最鮮明的特點:不需要英偉達(dá)的GPU就能跑得動?!敝芷M介紹,“陸兮科技的大參數(shù)量級模型,在傳統(tǒng)的CPU集群上能運行;終端的中級參數(shù)量模型,能在筆記本和家用電腦的CPU上運行;而端側(cè)小模型,在手機(jī)處理器上就能跑。”

全流程自主研發(fā)的類腦架構(gòu),確保了技術(shù)的自主可控,避免了對國外技術(shù)的依賴。目前,陸兮NLM類腦大模型,通過了國家網(wǎng)信辦《生成式人工智能服務(wù)備案》、《深度合成算法備案》,是我國首個采用類腦技術(shù)路線、通過兩項備案、獲準(zhǔn)上線公開運行的國產(chǎn)自研底層架構(gòu)大模型。

圖片

賦能千行百業(yè) 沖擊6000億參數(shù)規(guī)模

“AI的未來不是快速地流量變現(xiàn),而是用最前瞻的科技研究、最穩(wěn)定可靠的智能產(chǎn)品、最豐富普適的功能,創(chuàng)造新質(zhì)生產(chǎn)力,賦能千行百業(yè)高質(zhì)量發(fā)展。水利預(yù)測、醫(yī)療康復(fù)……這些才是國家真正的需求。”周芃說。

目前,陸兮類腦大模型已在醫(yī)療、康養(yǎng)、水利、能源、安防、消費電子等20余個基礎(chǔ)設(shè)施行業(yè)實現(xiàn)全面預(yù)部署,與中國電子、水利部長江水利委員會、聯(lián)通、中國田徑協(xié)會等多個國央企、行業(yè)頭部企業(yè)合作。其中,陸兮科技類腦醫(yī)療大模型已在多家三甲醫(yī)院、醫(yī)聯(lián)體網(wǎng)絡(luò)醫(yī)院與重點科室實現(xiàn)全面部署。

在這些應(yīng)用場景中,陸兮科技的類腦大模型,有效提升了工作效率和準(zhǔn)確性。例如,通過對洪澇災(zāi)害進(jìn)行預(yù)報、預(yù)警、預(yù)演和預(yù)案,提高了災(zāi)害預(yù)警的科學(xué)性。

與國央企共同研發(fā)推廣通用醫(yī)療大模型、糖尿+甲乳專病大模型,提高了診斷的準(zhǔn)確性和效率。

在端側(cè),陸兮科技“NLM-GPT”剛亮相時,僅需使用手機(jī)自帶處理器與存儲硬件,能在一臺普通安卓手機(jī)的離線模式下運行,完成工作與生活中的各項任務(wù)。

目前,陸兮科技的端側(cè)大模型,已成功部署在手機(jī)、手表、手環(huán)、耳機(jī)、電視、會議設(shè)備、智能家居等終端設(shè)備中,并在百元級的消費類電子產(chǎn)品中實現(xiàn)100%離線端側(cè)部署。

圖片

圖:架構(gòu)的核心技術(shù)說明

在陸兮科技,女性員工數(shù)量超過了一半以上,公司致力于性別平等,提倡員工共同養(yǎng)育子女、處理家庭事務(wù),打造一個更包容、支持女性的工作環(huán)境?!芭詮哪贻p時就經(jīng)歷了無數(shù)挑戰(zhàn),形成了強大的韌性,遇到各種艱難險阻,我們都能逢山開路,遇水架橋。陸兮科技創(chuàng)始人的女性身份,對于公司長期、穩(wěn)健、可持續(xù)發(fā)展,是極大的優(yōu)勢?!敝芷M說。

研究顯示,人腦的突觸連接總數(shù)在100萬億左右,相當(dāng)于100萬億的參數(shù)規(guī)模。而當(dāng)前最先進(jìn)的GPT-4參數(shù)規(guī)模約為1.8萬億,和人腦參數(shù)規(guī)模差了55倍。

目前,陸兮科技大模型的參數(shù)規(guī)模為580億。周芃透露,公司正在沖刺下一量級的規(guī)模,預(yù)計2025年將大模型參數(shù)規(guī)模提升至6000億。

周芃認(rèn)為,類腦架構(gòu)將會厚積薄發(fā),轉(zhuǎn)折點就在于模型參數(shù)規(guī)模的擴(kuò)大,直到逼近人腦的規(guī)模。

“Transformer是近年來發(fā)展最快的架構(gòu),但之后會趨向平緩。類腦架構(gòu)在緩慢發(fā)展后,將迎來爆發(fā)。”周芃對未來的發(fā)展信心滿滿。

本文為創(chuàng)業(yè)邦原創(chuàng),未經(jīng)授權(quán)不得轉(zhuǎn)載,否則創(chuàng)業(yè)邦將保留向其追究法律責(zé)任的權(quán)利。如需轉(zhuǎn)載或有任何疑問,請聯(lián)系editor@cyzone.cn。

反饋
聯(lián)系我們
推薦訂閱