編者按:本文來自微信公眾號 硅星人Pro(ID:Si-Planet),作者:王兆洋,創(chuàng)業(yè)邦經(jīng)授權(quán)發(fā)布。
500行代碼VS估值5億
1月25日,自從宣布創(chuàng)業(yè)后就備受社區(qū)矚目的賈揚清,在推特上展示了一個對話式搜索引擎的demo。
這個demo基于他創(chuàng)辦的LeptonAI提供的框架,“只用500行python 代碼”就開發(fā)完成。在邀請大家體驗同時,賈揚清也表示后續(xù)計劃把代碼開源。在介紹Lepton Search的一系列推特里,他還艾特了Perplexity——估值已經(jīng)達(dá)到5.2億的當(dāng)紅對話式搜索公司,并表示受到他們優(yōu)秀產(chǎn)品的啟發(fā)。
而這也很快吸引來Perplexiyt的注意,但引來的并不是什么好話。
其創(chuàng)始人Aravind Srinivas在推特上很快轉(zhuǎn)發(fā)賈揚清的推特并表示:“太棒了,看到 Perplexity 成為一些融資動作的參照物,包括前 Meta 和阿里巴巴高管都這樣做。這說明 Perplexity 的影響力不局限于產(chǎn)品本身,而是輻射到了整個科技生態(tài)和行業(yè)發(fā)展,令人振奮!”
翻譯過來就一句話:Lepton為了融資而抄了我Perplexity尊貴的前端代碼。
而這條推特下面不乏煽風(fēng)點火的評論,有人說Aravind你說的真委婉,這不就是抄襲了。但也有人指出,Aravind是反應(yīng)過度,Lepton根本不是個做搜索的公司,人干嘛要盯著你借鑒。
賈揚清也迅速回應(yīng),感謝了對方“友好的評論”,然后立刻表示咱們開源見。
之后加速寫代碼,居然一個周末不到真就把代碼開源了。
然后這500行代碼在周日上線Github,一天后拿到Githhub熱榜第一,第二天繼續(xù)熱榜。星星數(shù)不斷增長,目前三天已經(jīng)有了4500顆星星。
而從人們的討論看,有人已經(jīng)基于它拿到了一些黑客松冠軍,它還被一款聚焦開發(fā)者版的Perplexity產(chǎn)品集成,其CEO夸贊這給自己帶來速度大幅提升。許多體驗和對比了Lepton和Perplexity的用戶也夸贊了Lepton的體驗。而且它還在不停迭代功能,兩天不到,賈揚清和團隊成員就給它增加了包括中文在內(nèi)的多語言支持,把對話結(jié)果分享到推特和Facebook的功能,以及更多的API合作。
簡單體驗它后,我發(fā)現(xiàn)它確實用戶界面更加簡潔,速度也快很多。當(dāng)然,它的功能整體也更簡單,比如在每一次回答后,它就結(jié)束,再次輸入開啟的是新一輪回答,而非持續(xù)的對話。包括提問的長度識別,中文的識別等一些小bug也依然存在。
但他顯然打破了我對Perplexity的一部分濾鏡。
Perplexity的護城河被捅破了?
在開源代碼后,賈揚清不忘再次艾特Aravind,表示期待合作,可以讓對方體驗一下真正“快速,云原生和用戶體驗友好的平臺”。但這一次Aravind沒再說什么奇怪的話。
事實上這500行代碼以一種最粗暴的方式把所謂十幾年來第一次能挑戰(zhàn)谷歌的創(chuàng)新——對話式搜索的真實技術(shù)含量展示了出來。
從代碼入手看一看,它一共就是幾個步驟:1.獲取查詢,說白了就是得到用戶輸入的文字、2.抓取用戶輸入關(guān)鍵字相關(guān)的搜索頁面、3.解析網(wǎng)頁文本、4.基于文本構(gòu)建提示詞、5.把提示詞遞交給大語言模型、6.把大語言模型生成的結(jié)果返回給用戶。
當(dāng)然它還有些具體區(qū)別,比如搜索的來源——是使用Bing或Google的API,還是使用一個自己的數(shù)據(jù)庫;背后大模型上的選擇,是Mistral 還是Llama這些開源的,還是直接使用OpenAI的API,或像Perplexity還有自己的幾款模型供選擇;以及大模型在其中起作用的方式,是直接讓它根據(jù)需求生成回答,還是經(jīng)過一定的Prompt優(yōu)化。
不過這樣看起來你很快會明白,它本質(zhì)上是關(guān)于更好使用別人API的技術(shù)。
也就是說,這一切還是建立在傳統(tǒng)搜索引擎提供的檢索能力之上——想要替代Google的Perplexity是建立在Google的API之上的。它們本質(zhì)上屬于RAG技術(shù)的應(yīng)用,只不過,R更多來自對其他人API的系統(tǒng)性掌握,而G似乎可以更多歸功于自己的能力。賈揚清則表示,他在開發(fā)過程里發(fā)現(xiàn)在RAG里,R(檢索)比G(生成)的重要性更大。這樣看來,目前Lepton Search的demo之所以一開始沒有做多輪對話的能力,也似乎因為這個思路。展示R的能力更加重要。
Perplexity同樣沿著相似的技術(shù)思路,而在一些技術(shù)人士看來,他們的根源可能來自一篇Google和OpenAI合作的論文——是的,今天看起來可能不再可能一起寫論文的兩家公司,最后一次合作是對話式搜索的技術(shù)原理。
在這篇《FreshLLMs: Refreshing Large Language Models with Search Engine Augmentation》的論文里,他們提出了一種FreshPrompt的技術(shù)思路,也就是為了解決預(yù)訓(xùn)練模型對正在發(fā)生的事情的無知,要把它與實時搜索能力結(jié)合,而結(jié)合的方法是通過提供一種Prompt,這種Prompt本身是在按照發(fā)布日期,關(guān)鍵信源等各種要素來為大模型提供上下文信息,并通過一組優(yōu)化的Prompt來引導(dǎo)和改善大模型生成更實時更好的回答。
這種技術(shù)思路其實也在指向R的重要性可能大過G。
Perplexity的網(wǎng)頁版事實上誕生于這個論文之前,但據(jù)一些研究它產(chǎn)品邏輯的人表示,這個論文提出的方法也被用到后來Perplexity迭代后的產(chǎn)品中。
而只要看看這張論文里給出的prompt示意圖,這種技術(shù)方案之下,前端長成什么樣最終似乎就是一個大概率的雷同。
說了這么多,其實你會發(fā)現(xiàn),如果換成一個其他的基于“別人”的API和大模型能力,以及公開的論文給出的技術(shù)路線而開發(fā)的應(yīng)用,可能這“抄襲”的指責(zé)只會讓人一笑而過。Perplexity的指責(zé)似乎也是一樣的事情,賈揚清的500行代碼成了破解獨角獸身份帶來的技術(shù)幻覺最好的解藥。
醉翁之意
但沒人否認(rèn)的是,Perplexity依然是一款好產(chǎn)品。
然而一款充滿新設(shè)計的產(chǎn)品的好,在于功能體驗的量級上的突出,它來自對一整個系統(tǒng)的好品味與一個個細(xì)節(jié)積攢起來的優(yōu)化。對Perplexity來說,對大模型和召回技術(shù)的理解,以及它們與應(yīng)用的結(jié)合才是它快速成功的關(guān)鍵。而不在于一個單點的而且事實上也并不新鮮的概念。
在把理念通過簡潔的前端實現(xiàn)后,perplexity真正抓住用戶的是對產(chǎn)品的打磨進(jìn)而將對話能力與強大搜索引擎的準(zhǔn)確性相結(jié)合。這背后是各種細(xì)節(jié),品味,經(jīng)驗積累的最終結(jié)果。因此,它的護城河必然和時間成正比,從今天人們對它的好評也能看出——速度快,體驗絲滑,都是最樸素的感知,也是最容易替代的感知,因此在面對一個速度甚至更快的Lepton開源產(chǎn)品demo時,弦自然繃緊了。
而這也帶來整件事里真正有意思的地方:Perplexity暗示Lepton是抄襲其實在揣著明白裝糊涂。這種做法的一個表面上的作用,自然是“掩蓋”上面講的技術(shù)門檻并不高這件事。而除此之外,裝糊涂其實還有更重要的理由。
賈揚清在去年離開阿里后,創(chuàng)業(yè)初期其實十分低調(diào)。但這名開發(fā)了Caffe,核心參與了Tensorflow和Pytorch的框架大神,身經(jīng)百戰(zhàn)的原阿里副總裁,顯然對自己和團隊的技術(shù)能力并不低調(diào)。在9月時我在硅谷聽他創(chuàng)業(yè)后的第一次公開分享,他已經(jīng)在展示自己的Lepton服務(wù)是大模型基礎(chǔ)框架服務(wù)里速度第一的存在。只不過,現(xiàn)在看起來當(dāng)時Lepton仍處早期,對更多模型的適配,對算力的建設(shè)等都在解決當(dāng)中。
而進(jìn)入2024年,賈揚清和Lepton開始逐漸高調(diào)。這一次Lepton Search的發(fā)布像是一個轉(zhuǎn)折點。這家創(chuàng)業(yè)公司正式開始進(jìn)入戰(zhàn)場。
在這條Lepton Search的發(fā)布推特引發(fā)討論的同一天,AI創(chuàng)業(yè)公司Martian的一份開源大模型API推理榜單發(fā)布,對多款推理產(chǎn)品在主要的開源模型上的推理成本、速率和吞吐量等指標(biāo)做了測試,而Lepton拿下多項關(guān)鍵指標(biāo)第一。在另一個由ArtificialAnalysis.ai發(fā)布的API推理榜單中,Lepton也拿下了Mixtral 8x7B這個模型的每秒處理Token數(shù)的第一,并且是唯一一個支持Mixtral 32k上下文窗口的服務(wù)。“它的價格也極具競爭力”,這個榜單這樣說。
而在賈揚清轉(zhuǎn)發(fā)的榜單圖中,Lepton高高的圓圈旁邊,被它超過的一個小圓圈正是Perplexity。
是的,Perplexity才不只是一個應(yīng)用公司。
在Perplexity的對話搜索產(chǎn)品之外,Perplexity Lab其實和Lepton一樣,也是一個API推理服務(wù)商,比如最近剛發(fā)布的CodeLlama-70B-Instruct,就可以購買Perplexity Lab的API來直接使用,這也是最近Perplexity真正在發(fā)力的重點,它的社交媒體等賬號在大力推廣的是這個服務(wù)。
相比Perplexity這個搜索應(yīng)用,Lepton無疑直接沖擊的是后面這部分的付費用戶。
這對Perplexity有多重要呢?
事實上今天的Perplexity有點掛羊頭賣狗肉的意味:
用一個極具話題度(VC可以參與共謀)的toC產(chǎn)品吸引融資彈藥,然后補貼到API 燒錢競賽中去。因為前者面對的是今天商業(yè)世界里最成熟的全家桶+廣告的搜索商業(yè)模式,而后者則是在新周期里重演一遍被驗證多次的規(guī)模效益的機會——先燒錢拿到市場份額,再提高收費。
也就是說都是關(guān)乎API,一個是成本,一個是收益。一個是被數(shù)據(jù)方控制生死的應(yīng)用,一個是掘金潮里賣鏟子的生意。你說拿個真正更重要呢?
而且,如果去看一看Perplexity創(chuàng)業(yè)初期的故事,它最早做了一款口碑不錯的推特內(nèi)容的搜索,后來正因為馬斯克收購?fù)铺睾蟠蠓岣逜PI價格而被迫放棄。這些經(jīng)驗Perplexity顯然是吸取了,不想再犯一次。
所以裝糊涂的第二層目的就是借著先占據(jù)的突出和C端產(chǎn)品的存在感發(fā)起一下進(jìn)攻,騷擾一下在基礎(chǔ)設(shè)施端未來肉眼可見必有一戰(zhàn)的強敵。
看來所有人都意識到,在AI基礎(chǔ)設(shè)施層面,在所謂的API框架層面,一場更持久的戰(zhàn)爭要來了。
本文為專欄作者授權(quán)創(chuàng)業(yè)邦發(fā)表,版權(quán)歸原作者所有。文章系作者個人觀點,不代表創(chuàng)業(yè)邦立場,轉(zhuǎn)載請聯(lián)系原作者。如有任何疑問,請聯(lián)系editor@cyzone.cn。