五月天成人小说,中文字幕亚洲欧美专区,久久妇女,亚洲伊人久久大香线蕉综合,日日碰狠狠添天天爽超碰97

三個人、一篇論文,估值850億

一個“沒有產(chǎn)品”的超級獨角獸

編者按:本文來自微信公眾號 融中財經(jīng)(ID:thecapital),作者:呂敬之,編輯:吾人,創(chuàng)業(yè)邦經(jīng)授權(quán)轉(zhuǎn)載。

AI界又出現(xiàn)了一個超級獨角獸。

AI領(lǐng)域從不缺乏顛覆性事件,卻極少有一家公司能像Thinking Machines Lab 這樣,在成立僅七個月、尚未推出正式產(chǎn)品、甚至沒有實際用戶的情況下,就以120億美元(折合人民幣850億元)的估值驚艷全球行業(yè)。

這家由前OpenAI首席技術(shù)官(CTO)Mira Murati牽頭創(chuàng)立的人工智能研究公司,憑借三十余人的“豪華團(tuán)隊”,其中還包括OpenAI前安全研究副總裁、北大女學(xué)霸翁荔,不僅順利完成20億美元種子輪融資,更吸引了AMD、英偉達(dá)等行業(yè)巨頭爭相注資,一躍成為OpenAI、Anthropic和Google DeepMind等頭部企業(yè)的潛在勁敵。

不同于傳統(tǒng)創(chuàng)業(yè)公司“產(chǎn)品先行”的路徑,Thinking Machines Lab從誕生之初就自帶“顛覆屬性”。其核心團(tuán)隊幾乎全員來自O(shè)penAI,涵蓋了AI產(chǎn)品落地、核心技術(shù)研發(fā)等關(guān)鍵領(lǐng)域的頂尖人才,這種“頂配陣容”讓市場看到了復(fù)刻甚至超越OpenAI的可能性。

更值得關(guān)注的是,公司在無產(chǎn)品的情況下,選擇以技術(shù)研究成果為“名片”,通過發(fā)布研究博客和學(xué)術(shù)論文,向行業(yè)傳遞其在多模態(tài)基礎(chǔ)模型與下一代人機(jī)協(xié)作領(lǐng)域的布局,這種“技術(shù)驅(qū)動”的打法,也為AI初創(chuàng)公司的發(fā)展提供了全新范本 。

一個“沒有產(chǎn)品”的獨角獸

成立七個月、沒有產(chǎn)品也沒有用戶的公司被大佬們爭先投資,估值120億美元(折合人民幣850億)。

Thinking Machines Lab就是這么一家神奇的公司。

Thinking Machines Lab由前OpenAI首席技術(shù)官Mira Murati于2025年2月創(chuàng)立,是一家聚焦多模態(tài)基礎(chǔ)模型與下一代人機(jī)協(xié)作的人工智能研究公司;創(chuàng)立僅半年,便憑約三十人、三分之二出自O(shè)penAI的豪華團(tuán)隊完成由Andreessen Horowitz領(lǐng)投、英偉達(dá)與AMD跟投的20億美元種子輪,估值高達(dá)120億美元,并已與Google Cloud達(dá)成算力合作,計劃在未來幾個月內(nèi)發(fā)布包含開源組件的首款產(chǎn)品,以幫助研究人員和初創(chuàng)公司定制自己的AI模型,同時正大規(guī)模招攬具備AI產(chǎn)品經(jīng)驗的人才,被視為OpenAI、Anthropic和Google DeepMind的有力挑戰(zhàn)者。

為什么一家甚至還“沒有產(chǎn)品”的公司能獲得這么高的期待?這離不開“人、卡、勢”的三重優(yōu)勢。

人的方面,Thinking Machines Lab可謂擁有頂級初創(chuàng)團(tuán)隊。創(chuàng)始人Mira Murati是前OpenAI CTO,曾經(jīng)一手把ChatGPT、DALL-E、GPT-4做成全球級產(chǎn)品;聯(lián)創(chuàng)Barret Zoph、John Schulman等人同樣是Transformer與RLHF路線的核心作者。

對投資機(jī)構(gòu)而言,這支30人左右的小分隊幾乎是一張“全明星期權(quán)”:只要他們未來24個月里放出任何一條新曲線,就能直接對標(biāo)OpenAI的1500億估值,850億只是提前折現(xiàn)。

卡的方面,大模型競爭已變成GPU軍備賽。Thinking Machines Lab在官宣當(dāng)天就拿到英偉達(dá)、AMD的聯(lián)合注資,等于一次性鎖定幾萬張H100/H200的配額。在“得顯卡者得天下”的共識下,資本寧愿把估值一次性打滿,也不愿在卡更加稀缺的6個月后再去追高。

勢的方面,2024-2025年,AI估值模型從“收入P/S”迅速讓位于“生態(tài)席位費”:全球能真正從頭訓(xùn)練GPT-4級稠密模型的團(tuán)隊不超過5家,新名單已經(jīng)關(guān)閉。Thinking Machines Lab是最后一個由“原OpenAI核心決策層”整體出走的標(biāo)的,一旦錯過,下一個同等量級的敘事窗口可能3年后才出現(xiàn)。850億里有一半買的是“席位”,而不是產(chǎn)品。

再加上二級市場對AI的FOMO情緒外溢:只要公司放出“我們已能穩(wěn)定訓(xùn)練100B以上多模態(tài)模型”的技術(shù)博客,哪怕沒有對外API,二級市場就會用OpenAI 1500億、Anthropic 600億的錨直接做線性插值,把850億“合理化”。因此,850億并不是傳統(tǒng)意義上的“收入估值”,而是“敘事+算力+人才”三位一體的看漲期權(quán)定價;真到下一輪產(chǎn)品落地,如果模型性能或商業(yè)化不及預(yù)期,估值同樣可能迅速回調(diào)。

在Thinking Machines Lab背后的投資人中,英偉達(dá)和AMD備受關(guān)注。

英偉達(dá)和AMD投資Thinking Machines Lab,表面看是“投人”,骨子里是“買入口、鎖需求、搶話語權(quán)”。把高端GPU直接塞進(jìn)下一代“殺手級”模型,訓(xùn)練GPT-4.5級以上的多模態(tài)稠密模型,單集群就要幾萬張H100/H200,誰先搶到卡,誰就擁有下一個“爆款”入口。

英偉達(dá)和AMD把資本換成股權(quán),等于把“賣卡”前置成“占股+綁定采購”,一次性鎖定未來可能高達(dá)3-4萬顆高端GPU的確定需求,避免被“自研芯片”計劃截胡。

用“客戶即股東”模式抬高競品拿卡門檻,英偉達(dá)和AMD通過入股Thinking Machines Lab,把稀缺卡優(yōu)先供給“自己人”,變相讓競爭對手排隊更久,從而延緩別家模型迭代節(jié)奏,鞏固自身生態(tài)節(jié)奏話語權(quán)。

一篇論文

前幾天,Thinking Machines Lab發(fā)表了一篇論文,這也是少見的論文比產(chǎn)品先行的創(chuàng)業(yè)公司。

Thinking Machines開辟了研究博客專欄「Connectionism」(聯(lián)結(jié)主義),發(fā)表了第一篇博客文章“Defeating Nondeterminism in LLM Inference”(擊敗LLM推理中的非確定性)。

文中提到,盡管將溫度參數(shù)設(shè)為0(即采用貪婪采樣),LLM的輸出仍然可能出現(xiàn)不一致。這種現(xiàn)象在實際應(yīng)用中普遍存在,即使在相同的輸入和模型配置下,多次運(yùn)行得到的結(jié)果也可能不同。

對此,一種流行的解釋是,這種現(xiàn)象是由于浮點數(shù)的非結(jié)合性(即浮點加法不滿足結(jié)合律)和GPU并行計算中的原子操作競爭條件共同導(dǎo)致的。論文將這一觀點稱為“并發(fā)+浮點數(shù)”假說。

論文深入研究了LLM推理過程中使用的GPU內(nèi)核,發(fā)現(xiàn)雖然浮點數(shù)的非結(jié)合性是導(dǎo)致數(shù)值差異的根本原因,但并發(fā)執(zhí)行中的原子操作并非LLM推理非確定性的主要來源。提出“批大小變化”理論:作者指出,LLM推理中的非確定性主要源于服務(wù)器負(fù)載的變化,這會導(dǎo)致每次推理時的批大小(batch size)不同。而現(xiàn)有的GPU內(nèi)核在設(shè)計上缺乏“批不變性”(batch invariance),即計算結(jié)果會隨著批大小的變化而變化。

通過實驗,論文展示了即使運(yùn)行相同的矩陣乘法,當(dāng)批大小不同時,得到的結(jié)果也可能存在顯著差異。這表明,LLM推理系統(tǒng)在處理不同負(fù)載時,由于缺乏批不變性,會導(dǎo)致輸出結(jié)果的不一致。作者提出,要解決非確定性問題,需要確保LLM推理中涉及的關(guān)鍵計算內(nèi)核(如RMSNorm、矩陣乘法和注意力機(jī)制)具備批不變性。具體來說,要保證無論批大小如何變化,每個樣本的歸約(reduction)計算順序都保持一致。

簡單來說,文章研究的是如何提升模型輸出的穩(wěn)定性和可預(yù)測性。

這一點對用戶來說至關(guān)重要,因為這直接關(guān)系到用戶對AI系統(tǒng)的信任、開發(fā)者對問題的調(diào)試能力、系統(tǒng)的公平性與合規(guī)性、強(qiáng)化學(xué)習(xí)中的訓(xùn)練一致性、用戶體驗的穩(wěn)定性以及科學(xué)研究的可復(fù)現(xiàn)性。

如果同一個問題每次詢問AI都得到不同的答案,用戶會質(zhì)疑模型的可靠性,尤其是在法律、醫(yī)療、金融、教育等高風(fēng)險領(lǐng)域,輸出的一致性直接影響用戶對系統(tǒng)的信任。開發(fā)者也需要可復(fù)現(xiàn)的模型輸出,以便穩(wěn)定地復(fù)現(xiàn)bug并進(jìn)行修復(fù),這是軟件測試、回歸測試和模型評估的基礎(chǔ)。

此外,如果模型對相同輸入給出不同輸出,可能意味著某些群體或輸入被系統(tǒng)性區(qū)別對待,這在審計、合規(guī)和公平性評估中是不可接受的,因為必須確保模型行為一致才能判斷是否公平。在強(qiáng)化學(xué)習(xí)中,訓(xùn)練時使用的采樣策略與推理時必須保持一致,否則會導(dǎo)致策略漂移,使模型表現(xiàn)下降,非確定性還會讓“on-policy RL”變成“off-policy RL”,從而破壞訓(xùn)練目標(biāo)。

最重要的是,用戶也期望AI產(chǎn)品像傳統(tǒng)軟件一樣穩(wěn)定,如果今天問“如何報稅”得到一個答案,明天又變了,用戶會感到困惑甚至憤怒,對企業(yè)來說,輸出一致性是服務(wù)質(zhì)量的一部分,直接影響品牌聲譽(yù)。科學(xué)研究同樣需要可復(fù)現(xiàn)的實驗結(jié)果來比較不同模型或算法的優(yōu)劣,如果模型輸出每次都不同,就無法判斷是模型改進(jìn)帶來的提升還是隨機(jī)波動。因此,可預(yù)測性和可重復(fù)性不是技術(shù)細(xì)節(jié),而是AI系統(tǒng)能否被人類信任、部署和規(guī)?;褂玫牡拙€要求,就像一臺每次按鍵都打出不同字母的鍵盤無法被信任或改進(jìn)一樣,不可復(fù)現(xiàn)的AI也無法被真正應(yīng)用。

AI大模型的下一章

Thinking Machines Lab的出圈,似乎也給AI大模型初創(chuàng)公司一些新的啟示。

在追求模型性能的同時,必須高度重視輸出的可預(yù)測性和可重復(fù)性,這是贏得用戶信任、確保系統(tǒng)可靠性的關(guān)鍵,尤其在醫(yī)療、金融等高風(fēng)險領(lǐng)域,一致性直接關(guān)系到用戶是否敢用、愿用。

其次,技術(shù)透明和深入剖析問題根源至關(guān)重要,Thinking Machines Lab通過揭示LLM非確定性源于批大小變化而非浮點并發(fā),表明AI公司應(yīng)敢于挑戰(zhàn)行業(yè)常識,用扎實研究撥開迷霧,這種“技術(shù)誠實”本身就是品牌力。

工程優(yōu)化與學(xué)術(shù)研究需緊密結(jié)合,AI公司不能僅停留在算法層面,而要下沉到GPU內(nèi)核、數(shù)值計算順序等底層細(xì)節(jié),通過批不變性內(nèi)核、固定分塊策略等工程手段,將理論確定性真正落地為產(chǎn)品確定性。

除此之外,開發(fā)者體驗是生態(tài)護(hù)城河,提供可復(fù)現(xiàn)的推理結(jié)果、開源批不變算子庫、支持確定性模式,能極大降低開發(fā)者調(diào)試和部署成本,吸引社區(qū)共建,形成“越用越穩(wěn)”的飛輪。

確定性推理為AI高級應(yīng)用鋪平道路,強(qiáng)化學(xué)習(xí)、在線評估、合規(guī)審計、模型對比等場景都要求訓(xùn)練與推理零偏差,AI公司若率先解決非確定性,就能在RLHF、法律審計、金融風(fēng)控等高價值市場占據(jù)先機(jī)。

Thinking Machines Lab以小團(tuán)隊切入“大模型基礎(chǔ)設(shè)施痛點”并快速引發(fā)關(guān)注,提示AI公司不必卷參數(shù)、卷規(guī)模,而是可以聚焦“別人忽視的確定性縫隙”,用極致工程創(chuàng)新打出差異化,告訴行業(yè):性能不是唯一指標(biāo),穩(wěn)定、可信、可復(fù)現(xiàn),才是AI大規(guī)模商用的真正門票。

縱觀AI大模型行業(yè)的發(fā)展,也開啟了下一個時。模型架構(gòu)將更加注重效率與可解釋性,不再單純追求參數(shù)規(guī)模,而是探索如混合專家模型、稀疏激活、線性注意力等機(jī)制,在降低計算成本的同時維持性能,同時提升模型決策過程的可解釋性以符合監(jiān)管要求。

"確定性AI"將成為商業(yè)化分水嶺,隨著Thinking Machines Lab揭示非確定性根源,行業(yè)將加速推進(jìn)批不變性內(nèi)核、數(shù)值穩(wěn)定算法及標(biāo)準(zhǔn)化測試協(xié)議,確保醫(yī)療、金融等關(guān)鍵場景的輸出可復(fù)現(xiàn),可能催生專門的"可信AI"認(rèn)證體系。

訓(xùn)練推理一體化重構(gòu),邊緣-云協(xié)同的分布式訓(xùn)練框架將成熟,支持千億級模型在消費級硬件上微調(diào),配合動態(tài)批處理、內(nèi)存壓縮技術(shù)實現(xiàn)"本地私有化部署+云端彈性擴(kuò)展"的混合模式。第四,多模態(tài)融合進(jìn)入2.0階段,文本、視覺、音頻、傳感器數(shù)據(jù)將在統(tǒng)一token空間中進(jìn)行原生融合,出現(xiàn)專為機(jī)器人、車載終端設(shè)計的"物理世界大模型",推動AI從數(shù)字交互向?qū)嶓w操作進(jìn)化。

未來,人機(jī)協(xié)作范式轉(zhuǎn)變,模型將具備實時置信度評估能力,在不確定時主動調(diào)用工具或請求人類介入,推動"AI-人類混合決策鏈"成為企業(yè)標(biāo)配工作流程。能源效率成為核心指標(biāo),行業(yè)可能建立"每token能耗"評級制度,驅(qū)動液冷服務(wù)器、模型壓縮技術(shù)普及,預(yù)計2027年主流模型推理能耗將比2024年降低一個數(shù)量級。

這些趨勢共同指向一個未來:AI大模型將從"暴力計算"轉(zhuǎn)向"精密工程",在可控、可信、可持續(xù)的基礎(chǔ)上,真正成為社會關(guān)鍵基礎(chǔ)設(shè)施。

本文為專欄作者授權(quán)創(chuàng)業(yè)邦發(fā)表,版權(quán)歸原作者所有。文章系作者個人觀點,不代表創(chuàng)業(yè)邦立場,轉(zhuǎn)載請聯(lián)系原作者。如有任何疑問,請聯(lián)系editor@cyzone.cn。

反饋
聯(lián)系我們
推薦訂閱