今天凌晨,馬斯克旗下AI大模型Grok宣布正式開源。
xAI正式發(fā)布了大模型Grok-1,其參數(shù)量達到了3140億,遠超OpenAI GPT-3.5的1750億;是迄今參數(shù)量最大的開源LLM,是Llama 2的4倍。
Grok-1是一個混合專家(Mixture-of-Experts,MOE)大模型,這種MOE架構重點在于提高大模型的訓練和推理效率,形象地理解,MOE就像把各個領域的“專家”集合到了一起,遇到任務派發(fā)給不同領域的專家,最后匯總結論,提升效率。決定每個專家做什么的是被稱為“門控網(wǎng)絡”的機制。
xAI將Grok-1的權重和架構在GitHub上開源。一經上線GitHub,Grok就狂攬了6k星,586個Fork。
xAI是馬斯克在去年剛剛成立的AI初創(chuàng)公司,其目的之一就是與OpenAI、谷歌、微軟等對手在大模型領域進行競爭,其團隊成員來自OpenAI、谷歌DeepMind、谷歌研究院、微軟研究院等諸多知名企業(yè)和研究機構。
根據(jù)睿獸分析數(shù)據(jù)顯示,xAI在2023年12月完成了1.35億美元的Pre-種子輪融資。今年1月有消息傳出,馬斯克正在xAI洽談至多60億美元的融資,后被馬斯克予以否認。
2023年11月xAI正式發(fā)布了旗下第一款大模型產品 Grok AI,12月Grok并面向美國地區(qū)的 Premium+ X 用戶開放,每月16美元。xAI表示,Grok的設計靈感來源于《銀河系漫游指南》,它能夠回答幾乎所有問題,助力人類不分背景或政治立場地追求理解和知識。
Grok最初的版本Grok-0擁有330億參數(shù),緊接著xAI推出了經過數(shù)次改進的Grok-1,為X上的Grok聊天機器人提供支持。
Grok 整合了X平臺的實時數(shù)據(jù),能夠根據(jù) X 平臺的最新動態(tài)提供實時回應,這也是其與其他競爭對手的顯著差異之一。
更有趣的是,從Grok 那幽默且陰陽怪氣的回復中,能夠捕捉到馬斯克的影子。
然而,就像所有 AI 聊天機器人一樣,Grok 也存在“幻覺”問題,即生成包含虛假或誤導信息的回應。這種現(xiàn)象在所有大型語言模型(LLM)中都普遍存在,包括 ChatGPT。
xAI 表示Grok-1 的研發(fā)經歷了四個月。在此期間,Grok-1 經歷了多次迭代。
xAI 使用了一些旨在衡量數(shù)學和推理能力的標準機器學習基準對 Grok-1 進行了一系列評估:在這些基準測試中,Grok-1 顯示出了強勁的性能,超過了其計算類中的所有其他模型,包括 ChatGPT-3.5 和 Inflection-1。只有像 GPT-4 這樣使用大量訓練數(shù)據(jù)和計算資源訓練的模型才能超越它。xAI 表示,這展示了他們在高效訓練 LLM 方面取得的快速進展。
不過,開源版 Grok 目前還有些事情做不到,比如通過 X 平臺實時了解世界,實現(xiàn)這一功能目前仍需要訂閱部署在 X 平臺上的付費版本。
xAI宣布開源的消息剛剛發(fā)布,ChatGPT的官方賬號馬上就跟馬斯克在X平臺上進行了互動,在Grok官方賬號評論下回復道:“偷了我的笑話?!?/p>
馬斯克自然不會示弱,馬上說請告訴我OpenAI“Open”之處在哪里。
小扎也對Grok做出了評價,并沒有給人留下真正深刻的印象,3140億參數(shù)太多了,你需要一堆H100,不過我已經買下了。
在數(shù)次嘲諷OpenAI是CloseAI之后,馬斯克果真選擇了開源自家大模型。但是作為市場領導者的OpenAI,是沒有理由開源ChatGPT背后模型代碼的。
雖然Llama的開源盤活了深陷元宇宙泥潭的Meta;AI明星創(chuàng)企Mistral AI,也因為自己的開源策略而聲名鵲起,被業(yè)內認為是歐洲的OpenAI。
盡管OpenAI目前在AI領域仍遙遙突出,但開源和閉源的戰(zhàn)爭還遠遠沒有結束。馬斯克與OpenAI之間的愛恨情仇,也仍未落下帷幕。