五月天成人小说,中文字幕亚洲欧美专区,久久妇女,亚洲伊人久久大香线蕉综合,日日碰狠狠添天天爽超碰97

英偉達掌握AI時代“摩爾定律”,會加大中美AI公司差距么?

8年時間,英偉達AI芯片的算力增長了1000倍。

編者按:本文來自微信公眾號 阿爾法公社(ID:alphastartups),作者:發(fā)現(xiàn)非凡創(chuàng)業(yè)者的,創(chuàng)業(yè)邦經(jīng)授權(quán)發(fā)布。

當?shù)貢r間3月18日,英偉達在2024 GTC大會上發(fā)布了多款芯片、軟件產(chǎn)品。

創(chuàng)始人黃仁勛表示:“通用計算已經(jīng)失去動力,現(xiàn)在我們需要更大的AI模型,更大的GPU,需要將更多GPU堆疊在一起。這不是為了降低成本,而是為了擴大規(guī)模。”

作為GTC大會的核心,英偉達發(fā)布了Blackwell GPU,它分為B200和GB200系列,后者集成了1個Grace CPU和2個B200 GPU。

NVIDIA GB200 NVL72大型機架系統(tǒng)使用GB200芯片,搭配NVIDIA BlueField-3數(shù)據(jù)處理單元、第五代NVLink互聯(lián)等技術(shù),對比相同數(shù)量H100 Tensor核心的系統(tǒng),在推理上有高達30倍的性能提升,并將成本和能耗降低了25倍。

在AI應用方面,英偉達推出Project GR00T機器人基礎(chǔ)模型及Isaac機器人平臺的重要更新。

英偉達展示其AI芯片的算力在過去8年里實現(xiàn)了1000倍的增長,這代表AI時代的摩爾定律(算力快速增長,算力成本快速下降)正在形成。

實現(xiàn)10萬億參數(shù)AI模型的訓練和實時推理

在GTC大會上,英偉達不僅發(fā)布了算力方面的更新,也介紹了其在應用方面的進展。

1.更強的訓練算力,更快、成本更低的推理

Blackwell不僅是一塊芯片,也是一個平臺。英偉達的目標是讓規(guī)模達到10萬億參數(shù)的AI模型可以輕松訓練和實時推理。

它最小的單元是B200,內(nèi)置2080億個晶體管,使用定制的4NP TSMC工藝制造,采用Chiplet架構(gòu),兩個GPU dies通過每秒10TB的芯片到芯片鏈接連接成一個統(tǒng)一的GPU。

GB200超級芯片則將兩個B200 Tensor核心GPU通過每秒900GB的超低功耗NVLink芯片到芯片互連技術(shù)與NVIDIA Grace CPU連接。

再往上一層,則是NVIDIA GB200 NVL72,這是一個多節(jié)點、液冷的機架系統(tǒng),它內(nèi)含36個Grace Blackwell超級芯片,包括72個Blackwell GPU和36個Grace CPU,在NVIDIA BlueField-3數(shù)據(jù)處理單元的支持下,它能實現(xiàn)云網(wǎng)絡加速、可組合存儲、零信任安全性以及在超大規(guī)模AI云中的GPU計算彈性。

這個系統(tǒng)可以被作為"單個GPU"工作,這時它能提供1.4 exaflops的AI性能和30TB的快速內(nèi)存。據(jù)稱,一個GB200 NVL72就最高支持27萬億參數(shù)的模型。

最大規(guī)模的系統(tǒng)則是DGX SuperPOD,NVIDIA GB200 NVL72是DGX SuperPOD的構(gòu)建單元,這些系統(tǒng)通過NVIDIA Quantum InfiniBand網(wǎng)絡連接,可擴展到數(shù)萬個GB200超級芯片。

此外,NVIDIA還提供HGX B200服務器板,通過NVLink將八個B200 GPU連接起來,支持基于x86的生成式AI平臺。HGX B200通過NVIDIA Quantum-2 InfiniBand和Spectrum-X以太網(wǎng)網(wǎng)絡平臺支持高達400Gb/s的網(wǎng)絡速度。

GB200還將在NVIDIA DGX云上提供給客戶,這是一個與AWS、谷歌云和甲骨文云等突出的云服務提供商共同設(shè)計的AI平臺,為企業(yè)開發(fā)者提供專用訪問權(quán)限,以構(gòu)建和部署先進的生成式AI模型所需的基礎(chǔ)設(shè)施和軟件。

英偉達以實際的模型訓練為例,訓練一個GPT-MoE-1.8T模型(疑似指GPT-4),此前使用Hopper系列芯片需要8000塊GPU訓練90天,現(xiàn)在使用GB200訓練同樣的模型,只需要2000塊GPU,能耗也只有之前的四分之一。

由GB200組成的系統(tǒng),相比相同數(shù)量的NVIDIA H100 Tensor核心GPU組成的系統(tǒng),推理性能提升30倍,成本和能耗降低25倍。

在背后支持這些AI芯片和AI算力系統(tǒng)的是一系列新技術(shù),包括提升性能的第二代Transformer引擎(支持雙倍的計算和模型大小)、第五代NVLink(提供了每個GPU1.8TB/s的雙向吞吐量);提升可靠性的RAS引擎(使AI算力系統(tǒng)能夠連續(xù)運行數(shù)周甚至數(shù)月);以及安全AI(保護AI模型和客戶數(shù)據(jù))等。

在軟件方面,Blackwell產(chǎn)品組合得到NVIDIA AI Enterprise的支持,這是一個端到端的企業(yè)級AI操作系統(tǒng)。NVIDIA AI Enterprise包括NVIDIA NIM推理微服務,以及企業(yè)可以在NVIDIA加速的云、數(shù)據(jù)中心和工作站上部署的AI框架、庫和工具。NIM推理微服務可對來自英偉達及合作伙伴的數(shù)十個AI模型進行優(yōu)化推理。

綜合英偉達在算力方面的創(chuàng)新,我們看到它在AI模型訓練和推理方面的顯著進步。

在AI的模型訓練方面,更強的芯片和更先進的芯片間通訊技術(shù),讓英偉達的算力基礎(chǔ)設(shè)施能夠以相對較低的成本訓練更大的模型。GPT-4V和Sora代表了生成式AI的未來,即多模態(tài)模型和包括視頻在內(nèi)的視覺大模型,英偉達的進步讓規(guī)模更大、更多模態(tài)和更先進的模型成為可能。

在AI推理方面,目前越來越大的模型規(guī)模和越來越高的實時性要求,對于推理算力的挑戰(zhàn)十分嚴苛。英偉達的AI算力系統(tǒng)推理性能提升30倍,成本和能耗降低25倍。不僅讓大型模型的實時推理成為可能,而且解決了以往的并不算優(yōu)秀的能效和成本問題。

2.著重發(fā)力具身智能

英偉達在GTC大會上公布了一系列應用方面的新成果,例如生物醫(yī)療、工業(yè)元宇宙、機器人、汽車等領(lǐng)域。其中機器人(具身智能)是它著重發(fā)力的方向。

它推出了針對仿生機器人的Project GR00T基礎(chǔ)模型及Isaac機器人平臺的重要更新。

Project GR00T是面向仿生機器人的通用多模態(tài)基礎(chǔ)模型,充當機器人的“大腦”,使它們能夠?qū)W習解決各種任務的技能。

Isaac機器人平臺為開發(fā)者提供新型機器人訓練模擬器、Jetson Thor機器人計算機、生成式AI基礎(chǔ)模型,以及CUDA加速的感知與操控庫

Isaac機器人平臺的客戶包括1X、Agility Robotics、Apptronik、Boston Dynamics、Figure AI和XPENG Robotics等突出的仿生機器人公司。

英偉達也涉足了工業(yè)機器人和物流機器人。Isaac Manipulator為機械臂提供了最先進的靈巧性和模塊化AI能力。它在路徑規(guī)劃上提供了高達80倍的加速,并通過Zero Shot感知(代表成功率和可靠性)提高了效率和吞吐量。其早期生態(tài)系統(tǒng)合作伙伴包括安川電機、PickNik Robotics、Solomon、READY Robotics和Franka Robotics。

Isaac Perceptor提供了多攝像頭、3D環(huán)繞視覺能力,這些能力對于自動搬運機器人特別有用,它幫助ArcBest、比亞迪等在物料處理操作等方面實現(xiàn)新的自動化水平。

英偉達算力井噴后,對創(chuàng)業(yè)公司有何影響?

在發(fā)展方式上,英偉達與OpenAI等公司有明顯的不同。

OpenAI以及Anthropic、Meta等公司是以AI模型為核心,然后運營平臺和生態(tài);英偉達則以算力為核心,并拓展到軟件平臺和AI的相關(guān)應用。并且在應用方面,它并沒有表現(xiàn)出一家壟斷的態(tài)勢,而是與各種行業(yè)的合作伙伴共創(chuàng),其目的是建立一個軟硬件結(jié)合的龐大生態(tài)。

此次英偉達在算力方面的進步,對于AI創(chuàng)業(yè)公司們也產(chǎn)生了深刻影響。

對于大模型領(lǐng)域創(chuàng)業(yè)公司,例如OpenAI等,這顯然是利好,因為他們能以更快的頻率,更低的成本訓練規(guī)模更大,模態(tài)更多的模型,并且有機會進一步降低API的價格,擴展客戶群體。

對于AI應用領(lǐng)域的創(chuàng)業(yè)公司,英偉達不僅將推理算力性能提高了數(shù)十倍,而且降低了能耗和成本。這讓AI應用公司們能在成本可承擔的前提下,拓展業(yè)務規(guī)模,隨著AI算力的進一步增長,未來AI應用公司的運營成本還可能進一步降低。

對于AI芯片領(lǐng)域的創(chuàng)業(yè)公司,英偉達的大更新讓他們感受到了明顯壓力,而且英偉達提供的是一套完整的系統(tǒng),包括算力芯片,芯片間通信技術(shù),打破內(nèi)存墻的網(wǎng)絡芯片等。AI芯片創(chuàng)業(yè)公司必須找到自己真正能建立優(yōu)勢的方向,而不是因為英偉達這類巨頭的一兩次更新就失去存在價值。

中國的AI創(chuàng)業(yè)公司,因為各種各樣的原因,很難使用最新最強的英偉達AI芯片,作為替代的國產(chǎn)AI芯片在算力和能效比上目前仍有差距,這可能導致專注大模型領(lǐng)域的公司們在模型的規(guī)模擴展和迭代速度上與海外的差距拉大。

對于中國的AI應用公司,則仍有機會。因為它們不僅可以用國內(nèi)的基礎(chǔ)模型,也可以用海外的先進開源模型。中國擁有全球知名的AI工程師和產(chǎn)品經(jīng)理,他們打造的產(chǎn)品足可以參與全球競爭,這讓AI應用公司們進可以開拓海外市場,還有足夠龐大的國內(nèi)市場做基本盤,AI時代的字節(jié)跳動、米哈游很可能在它們中間產(chǎn)生。

本文由阿爾法公社原創(chuàng)。

本文為專欄作者授權(quán)創(chuàng)業(yè)邦發(fā)表,版權(quán)歸原作者所有。文章系作者個人觀點,不代表創(chuàng)業(yè)邦立場,轉(zhuǎn)載請聯(lián)系原作者。如有任何疑問,請聯(lián)系editor@cyzone.cn。

反饋
聯(lián)系我們
推薦訂閱