編者按:本文來自微信公眾號“混沌大學”(ID:hundun-university),作者:混沌學園,創(chuàng)業(yè)邦經(jīng)授權(quán)轉(zhuǎn)載。
在這個AI技術(shù)日新月異的時代,我們眼看著它不僅在改變生活,更在改變著商業(yè)規(guī)則。
AI可不只是那些冰冷的算法,它現(xiàn)在能像人一樣思考、推理,甚至在某些方面的表現(xiàn)超越了普通人。這告訴我們,傳統(tǒng)的技術(shù)和創(chuàng)新模式已經(jīng)不夠用了,企業(yè)要想增長、要保持競爭力,就需要換個思路。AI正在重新定義我們理解和實踐商業(yè)創(chuàng)新的方式。
最近,混沌君旁聽了混沌學園的創(chuàng)始人李善友教授的重磅全新課程《認知型創(chuàng)新:從OpenAI到DeepSeek》。
這門課從企業(yè)創(chuàng)新的角度,講述了全球兩大頂尖AI公司——OpenAI和DeepSeek是如何一步步走到今天的,他們究竟走過了怎樣的創(chuàng)新之路。這對于我們理解AI時代的技術(shù)創(chuàng)新和企業(yè)創(chuàng)新,提供了清晰且極具價值的路徑。
教授深挖了OpenAI最初的愿景和它如何對抗巨頭的思路,解密大語言模型是如何誕生的,尤其是AI能力如何從簡單積累到驚人“涌現(xiàn)”。還解讀了DeepSeek如何在資源有限的情況下,走出一條“低成本高性能”的獨特道路;更探討了AI時代下,企業(yè)應(yīng)該怎樣構(gòu)建一個能不斷“涌現(xiàn)”創(chuàng)新的組織模式,走向“技術(shù)領(lǐng)先”。
第一幕:OpenAI的橫空出世
OpenAI的創(chuàng)立初心:反巨頭霸權(quán)
OpenAI的故事得從2015年說起。那時候,埃隆·馬斯克和薩姆·奧特曼就開始擔憂:AI這種未來世界的“終極武器”,若落到少數(shù)科技巨頭手里,對全人類將是巨大麻煩。馬斯克親歷了谷歌收購DeepMind,深感AI力量集中的風險,于是他決定和奧特曼一起干件大事——成立OpenAI。
他們的初心是要搞一個開源、安全、普惠的人工智能。與其讓幾家大公司“圈地為王”,不如讓AI技術(shù)像陽光空氣一樣,普照給所有人。為此,他們不惜代價從谷歌挖來核心科學家伊利亞·蘇茨克維爾(Ilya Sutskever)。據(jù)傳,就因為挖走伊利亞這事兒,馬斯克跟谷歌創(chuàng)始人之間的友誼都斷了。
圖為伊利亞·蘇茨克維爾(Ilya Sutskever)
OpenAI于是就帶著“反巨頭”使命誕生,最初是非盈利組織,為保證AI純粹與開放。他們吸引頂尖科學家,共同探索通用人工智能(AGI)的可能性。
大語言模型的誕生邏輯:Transformer × Scaling Law
OpenAI能引爆大語言模型革命,并非偶然,而是源于對兩大“秘密武器”的極致運用:Transformer架構(gòu)和Scaling Law(尺度定律)。
先說Transformer。這是谷歌在2017年搞出來的,當時它像個低調(diào)“技術(shù)極客”,沒人預料到它的巨大能量。打個比方,以前處理語言信息的模型,像“近視眼”,難以高效處理長文本。而Transformer引入“自注意力機制”,讓模型處理每個詞時,能“一眼掃盡”整個句子所有其他詞,并判斷詞與詞之間關(guān)系。這就像給模型裝上“超廣角透視眼”,其語言理解能力瞬間飆升,實現(xiàn)數(shù)據(jù)并行處理,訓練速度大大提高,為大語言模型高速發(fā)展奠定基礎(chǔ)。
Transformer架構(gòu)介紹,圖源自網(wǎng)絡(luò)
緊接著,是真正讓“大模型”概念深入人心的Scaling Law(尺度定律)。這項定律揭示了一個規(guī)律:大語言模型性能提升,并非玄學,而與模型規(guī)模(參數(shù)量)、訓練數(shù)據(jù)量及計算資源投入之間,存在可預測的、幾乎線性的關(guān)系。這意味著,只要持續(xù)投入更多計算資源,用更大模型、更多數(shù)據(jù)訓練,模型性能就會穩(wěn)步提升,甚至“涌現(xiàn)”出未曾預料的新能力。
只要算力足夠大,數(shù)據(jù)足夠多,神經(jīng)網(wǎng)絡(luò)就一定可以超越人類設(shè)計。這個思維影響了伊利亞。
OpenAI正是憑借對Scaling Law的“篤信”和伊利亞等人的堅決執(zhí)行,才敢于進行前所未有的巨額投入,最終催生了震驚世界的顛覆性大語言模型。可以說,Scaling Law不僅是科學發(fā)現(xiàn),更是指引AI前進的“信仰”。
從MP神經(jīng)元到GPT的“涌現(xiàn)”之路
人類對機器智能的探索,是漫長而驚喜的旅程。早在上世紀40年代,科學家們就琢磨人腦思考方式,搞出了像MP神經(jīng)元模型這樣的早期理論,它像簡陋的“電子腦細胞”,是構(gòu)建人工神經(jīng)網(wǎng)絡(luò)的初步嘗試。這些最初的嘗試,雖笨拙,卻為后來深度學習的參天大樹打下根基。
而當代的GPT(Generative Pre-trained Transformer)系列模型,是這條演進鏈上的最新奇跡。它們之所以轟動,核心在于一個神奇能力:“涌現(xiàn)”。這詞兒聽起來有點哲學,但很好理解。你可以想象,單個水分子沒有“濕潤”屬性,但無數(shù)水分子聚集成河流,便能滋養(yǎng)萬物——這就是“涌現(xiàn)”。
在GPT模型里,當參數(shù)量(模型“神經(jīng)元”數(shù)量)和訓練數(shù)據(jù)量達到巨大臨界點時,這些模型就像突然“開了竅”,能力瞬間爆發(fā),展現(xiàn)出單個部分不具備、甚至連科學家都難以預測的新功能。
這些能力并非預先編程設(shè)定,而是在海量訓練中自發(fā)學習和領(lǐng)悟。這種“涌現(xiàn)”現(xiàn)象,使得大語言模型不再是只會“鸚鵡學舌”的工具,它們開始具備“智能”,成為可與人類協(xié)作的通用型助手。
ChatGPT的爆火與人機交互范式變革
如果說GPT模型誕生是AI技術(shù)大爆炸,那么2022年末OpenAI推出的ChatGPT爆火,則是一場真正意義上的全球“現(xiàn)象級”事件。
以前的AI工具,用起來很麻煩,你得學它的“行話”,敲特定指令。但ChatGPT不一樣,你用最日常、最自然的口語輸入,它就能理解你的意思,提供你想要的答案。無論是幫你寫郵件、生成文案、解答科學問題,甚至是調(diào)試代碼,ChatGPT都能給出令人驚艷的回答,有求必應(yīng)。
所以,ChatGPT的“火”,絕不僅僅是技術(shù)厲害,它更深刻地引發(fā)了人機交互范式根本性變革。以前,我們與機器交流僵硬、刻板。但ChatGPT開啟“對話式AI”時代。它讓用戶不再需要學習枯燥編程語言或復雜指令,而是可以像聊天一樣,用最自然、最日常語言提問,AI就能理解并給出有意義、有邏輯的回復。
這極大降低了AI使用門檻,讓曾經(jīng)高高在上的技術(shù),真正走入千家萬戶,深刻改變著人們的工作、學習和生活方式。
可以說,ChatGPT的成功,不僅為后續(xù)AI應(yīng)用大爆發(fā)奠定用戶基礎(chǔ),更重塑了我們對人機協(xié)作可能性邊界的認知,讓我們看到了無限可能的未來。
推理模型o1的登場:從系統(tǒng)1到系統(tǒng)2的認知躍遷
在ChatGPT掀起普及狂潮后,OpenAI并未止步,繼續(xù)將目光投向更深層次智能——于是,迎來推理模型o1的登場。o1的出現(xiàn),標志著人工智能認知能力的重要躍遷,它將AI思考模式從“系統(tǒng)1”推向“系統(tǒng)2”。
這個“雙系統(tǒng)理論”源自心理學家丹尼爾·卡尼曼的《思考,快與慢》:系統(tǒng)1代表人類的直覺思維:快速、自動化、不費力。如看到2+2立刻得出4。
早期AI模型多體現(xiàn)“系統(tǒng)1”特征,擅長模式識別,但缺乏深度邏輯推演。系統(tǒng)2代表人類的理性思維:緩慢、有意識、需投入精力。如解決復雜數(shù)學題、深入邏輯分析。
OpenAI的推理模型o1,正是朝著AI具備“系統(tǒng)2”能力方向邁進。它不再僅依賴海量數(shù)據(jù)模式匹配,而是能進行更復雜的多步推理、邏輯分析和深度問題解決。甚至在推理中自我糾正。這種能力提升,使AI展現(xiàn)出更接近人類高級認知功能的理解、分析和推理能力。
第二幕:DeepSeek的逆襲戰(zhàn)略
“有限Scaling Law”:低成本高性能路線
在全球AI巨頭大舉投入、追求極致Scaling Law時,中國DeepSeek卻走出截然不同的逆襲之路——他們玩兒的是“有限Scaling Law”,成功實踐了低成本高性能戰(zhàn)略。
這并非否定規(guī)模力量,而是在資源有限現(xiàn)實下,玩兒出效率最大化的智慧。
DeepSeek團隊清楚,并非所有公司都像OpenAI那樣擁有無限算力與資金。所以,他們目標明確:如何在更“經(jīng)濟”的投入下,達到甚至超越頂尖模型性能?
他們不光投入少,更重要的是“會玩兒”。
“有限Scaling Law”的核心,在于對模型架構(gòu)和訓練方法深度優(yōu)化。他們更側(cè)重數(shù)據(jù)高質(zhì)量篩選與利用,而非盲目堆砌;更注重訓練算法效率和收斂速度,而非簡單延長訓練時間;更關(guān)注模型推理階段性能和能耗比,而非僅追求訓練階段的峰值數(shù)據(jù)。
有個小細節(jié)特別能體現(xiàn)他們的理念。DeepSeek CEO梁文鋒常對團隊說:“這行代碼,能不能省五毛錢的電費?”
你想想,這種摳細節(jié)、追求極致效率精神,是不是跟那種“只要有錢,大力出奇跡”的無限游戲完全不同?
最終,DeepSeek的R1模型以極低訓練成本,展現(xiàn)出與OpenAI o1模型媲美的強大能力,甚至在某些指標上有所超越。
這無疑是對“有錢就能贏”單一路徑的有力回應(yīng),證明創(chuàng)新在資源受限時,同樣可迸發(fā)出驚人的能量。這個戰(zhàn)略選擇,也讓更多中小型企業(yè)和研究機構(gòu)看到參與大模型競爭的可能性。
架構(gòu)創(chuàng)新:MLA + MoE 的軟硬協(xié)同優(yōu)化
DeepSeek能在有限成本下跑出高性能,除了理念上的“有限Scaling Law”,還得靠他們家在模型“骨架”上的大膽創(chuàng)新和軟硬件的配合。這其中,MLA(Multi-Head Latent Attention 多頭潛在注意力)和MoE(Mixture of Experts,混合專家模型)是兩大秘密武器。
先說MLA。Transformer架構(gòu)里的“自注意力機制”雖然厲害,但處理長文本時特別“吃內(nèi)存”,就像你腦子一下子要記住一本書每一頁每一個字,特別占內(nèi)存。MLA技術(shù)就像給模型“大腦”安裝高效“索引系統(tǒng)”和“壓縮包”。它通過算法設(shè)計,讓模型計算注意力時更高效利用內(nèi)存。
打個比方,傳統(tǒng)做法圖書館所有書都是大號精裝本,特占地方。MLA能把普通書壓縮成低精度的版本,只有關(guān)鍵工具書才精裝。這樣,模型處理長文本時,就不用把所有細節(jié)都精裝到內(nèi)存里,只需要提煉核心信息,于是節(jié)省內(nèi)存占用,效率大大提升。
再來說說MoE(混合專家模型)。這個不是他們原創(chuàng),但DeepSeek把它用活了。
傳統(tǒng)模型訓練,像培養(yǎng)“全能廚師”,什么菜都會做,訓練難還特別貴。MoE思路完全不一樣,它把大模型拆分成多個專家子網(wǎng)絡(luò)。每個專家像只專注一道菜的“專業(yè)廚師”。當新任務(wù)進來時,模型像智能領(lǐng)班,只把任務(wù)分配給最擅長解決問題的“專家”廚師,而不是所有廚師都瞎忙活。
這樣,每次計算時,只有少數(shù)相關(guān)的“專家”被激活,顯著降低了模型的計算成本和推理延遲。就像餐館有256個廚子,你點麻辣烤魚和甜點,只需激活川菜專家、海鮮廚師和甜點師三四個,效率是不是高多了?
最關(guān)鍵的是,DeepSeek不光用了這些技術(shù),他們還實現(xiàn)了軟硬協(xié)同優(yōu)化。這可不是簡單軟件優(yōu)化,而是模型架構(gòu)(軟件)和底層計算硬件(如華為昇騰AI平臺)的深度配合。他們像軟件工程師和硬件工程師坐一桌,共同設(shè)計一套最匹配系統(tǒng),最大限度發(fā)揮計算資源潛力。這種從“軟件”到“硬件”的全棧優(yōu)化思路。這才是DeepSeek突破資源瓶頸,實現(xiàn)低成本高性能的真正原因。
就拿DeepSeek V3模型來說,它參數(shù)高達6710億,但每次計算只需激活37億參數(shù),這使得V3訓練成本僅5557萬美元——是同類型模型成本的十分之一。這種巨大的成本優(yōu)勢,讓所有人都震驚了。
R1開源,推動全民AI認知突破
如果說DeepSeek V3模型讓他們業(yè)界嶄露頭角,那么真正讓DeepSeek名震天下的,是它在2025年1月20日發(fā)布的推理模型R1。V3相當于基礎(chǔ)的歸納法,R1則是真正能“思考”的推理模型。
我們拿圍棋AlphaGo和AlphaGo Zero做個類比。AlphaGo打敗柯潔,因它背下人類圍棋幾千年棋譜,是在人類經(jīng)驗上學下棋。AlphaGo Zero則不同,不輸入任何人類定式,只告知它基本規(guī)則,然后自己跟自己下棋,純強化學習,“左手打右手”,把差的扔掉,好的繼續(xù)優(yōu)化。結(jié)果呢?AlphaGo Zero只訓練三天,就完勝AlphaGo。
回到AI大模型,OpenAI的GPT模型,強化學習基于人類反饋(RLHF),就像剛開始的AlphaGo。而DeepSeek的R1,像AlphaGo Zero,用無需人類反饋的純強化學習,讓AI自己“試錯”,好的留,差的扔,自己摸索最優(yōu)解。
令人震驚的是,OpenAI的推理模型o1雖率先實現(xiàn)類似能力,但它保密、不開源、不寫論文。然而,DeepSeek竟然成功復現(xiàn)了這種能力。這簡直“驚天地泣鬼神”。
而且,R1模型在交互上,竟然還能展示完整推理過程。你問問題,它不僅給答案,還能把怎么一步步“思考”出來的過程展示給你。甚至有評論說,連奧特曼都對OpenAI o1不能展示完整推理過程感到后悔。
奧數(shù)競賽中,DeepSeek R1和OpenAI o1準確率幾乎不相上下,證明R1在純邏輯推理、數(shù)學和編程上的強大能力。
2025年1月26日,DeepSeek甚至登上美國免費應(yīng)用榜單第一。微軟CEO公開場合提DeepSeek,第二天英偉達市值就下跌17%!這足以說明R1的出現(xiàn),對整個AI生態(tài)產(chǎn)生了巨大震動。
劉嘉教授曾打比方:“這就像從尼安德特人到現(xiàn)代智人這么重要?!?它實現(xiàn)從歸納法到演繹法認知躍遷,人類文明史上只有古希臘發(fā)生過,才有了科學革命。
現(xiàn)在,AI正進入此階段,R1,就是智能時代的“核武器”,目前只有中美兩國擁有。
AI時代組織的構(gòu)建:以“涌現(xiàn)”為關(guān)鍵詞的AI Lab范式
在AI浪潮沖擊下,傳統(tǒng)組織模式面臨重構(gòu)需求。DeepSeek則描繪了一種以“涌現(xiàn)”為關(guān)鍵詞的AI Lab范式,更能適應(yīng)AI時代創(chuàng)新節(jié)奏。
傳統(tǒng)的研發(fā)機構(gòu)往往層級分明,任務(wù)自上而下分配。但在AI大模型研發(fā)中,創(chuàng)新不可預測,需要高度靈活性和自發(fā)性。DeepSeek AI Lab組織范式,正是為了激發(fā)這種“涌現(xiàn)”創(chuàng)新力。這種范式:
開放協(xié)作與資源共享:DeepSeek允許研發(fā)資源(特別是寶貴的GPU算力)對全員開放。研究人員可根據(jù)項目需求,自由調(diào)用計算資源,不受限于審批流程。這種高度資源共享,極大激發(fā)研究人員積極性、自主性,讓他們能更快速進行實驗和迭代。
動態(tài)團隊構(gòu)成:項目團隊非固定,根據(jù)研究方向動態(tài)調(diào)整。員工可根據(jù)興趣專長,自發(fā)成立小組,共同推進特定項目。這種靈活團隊模式,打破部門壁壘,促進跨學科合作與知識流動。
自組織管理:管理提供創(chuàng)新“涌現(xiàn)”環(huán)境,非簡單命令控制。團隊成員擁有自主權(quán)與責任感,主動發(fā)現(xiàn)問題,提出解決方案。管理者提供支持,掃清障礙,確保信息透明。梁文鋒本人就保持著極高專注力,他不見外人,大量時間招聘,親自把關(guān)人才,甚至親自寫代碼、寫論文。他們的HR團隊也極其樸素,沒有那種大公司的“高大上”氣質(zhì)。
這種以“涌現(xiàn)”為關(guān)鍵詞的AI Lab范式,本質(zhì)在于激發(fā)個體創(chuàng)新潛能,并將其匯聚成組織集體智慧。它強調(diào)信任、自由、賦能,鼓勵試錯、快速迭代,從而在不確定性極強的AI研發(fā)領(lǐng)域,實現(xiàn)持續(xù)技術(shù)突破和創(chuàng)新。這對于希望在AI時代保持競爭力的創(chuàng)業(yè)者而言,提供了極具參考價值的組織構(gòu)建思路。
有一個非常經(jīng)典的例子可以體現(xiàn)這種“涌現(xiàn)”。DeepSeek的MLA架構(gòu)創(chuàng)新是怎么誕生的?據(jù)說源于某個研究員的個人興趣,他在總結(jié)主流注意力機制架構(gòu)演化規(guī)律后,突然靈感迸發(fā),設(shè)計出新替代方案。這個方案不是梁文鋒想的,也不是小組攻關(guān)的,就是一個年輕人“頓悟”出來的。
再比如,北大在讀博士(博三)王培懿,加入DeepSeek時并沒有強化學習經(jīng)驗,但在數(shù)學研究中獨立推導出了一個統(tǒng)一公式,解決了各種訓練方法問題,這也是一個“頓悟時刻”。正是這個公式,讓R1 Zero變成了今天的R1。
DeepSeek V2論文有150位作者,甚至包含數(shù)據(jù)標注人員名字,梁文鋒本人也在其中。這種團隊協(xié)作模式,體現(xiàn)人與人之間的平等交互,沒有嚴格的KPI和OKR束縛。
但程序員為了1%性能突破,可不眠不休工作一月,不害怕困難。因為這能激發(fā)天賦和成就感。這種組織,就是為了讓創(chuàng)新能夠自然地“涌現(xiàn)”出來。
對于技術(shù)創(chuàng)新驅(qū)動的創(chuàng)業(yè)者而言,DeepSeek的組織模式提供了新思路。傳統(tǒng)的金字塔管理、KPI考核,在AI這種高度不確定和需要靈感“涌現(xiàn)”的領(lǐng)域,反而可能成為創(chuàng)新的桎梏。
如果你也是技術(shù)出身的創(chuàng)業(yè)者,你可能更應(yīng)該相信你的團隊,尤其是那些對技術(shù)本身充滿熱情、有好奇心的年輕人。給他們足夠的自由和資源,讓他們在“無人區(qū)”里探索,而不是把他們框死在既定任務(wù)里。
梁文鋒的做法是:招來合適的人,交給他重要的事兒,然后就放手讓他自己想辦法,自己發(fā)揮。
還有就是擁抱“非標準”人才。不要只盯著大廠出來的大咖,那些有潛力的應(yīng)屆生、博士生,他們可能技能多于經(jīng)驗,但對研究的渴望遠超金錢。他們比較純粹,這樣的年輕人正是你打造“涌現(xiàn)型組織”的基石。
“我們希望培養(yǎng)出自己的團隊?!?這是梁文鋒的野心,也是你可以學習的培養(yǎng)團隊的策略。
確保內(nèi)部透明與資源共享。你的計算資源(比如GPU算力),能不能對團隊成員沒有限制?當他們有想法時,能不能隨時調(diào)用訓練集群,無需審批?這種內(nèi)部的“開源”和自由度,能夠極大激發(fā)員工的創(chuàng)造力。
請記住,組織的本質(zhì)是人與人之間的交互模式。在AI時代,你需要打造的,是一個能夠讓每個個體的“心流”與組織的“涌現(xiàn)”融為一體的組織。
DeepSeek的崛起:打破中國創(chuàng)新者的“思想鋼印”
我們要問了:DeepSeek的成就,為何是由看似“名不見經(jīng)傳”的梁文鋒創(chuàng)造的,而不是那些大廠——騰訊、阿里,字節(jié),或者“六小虎”們?
要知道,大廠肩負著市值壓力,而“六小虎”們則面臨估值重擔。過去,所有企業(yè)都有一種根深蒂固的慣性,一條“看不見的繩子”牽引著他們:必須盡快實現(xiàn)商業(yè)化、產(chǎn)品化、應(yīng)用化,追求用戶增長和營收。因為有融資、有市值,就必然有KPI。
那么,這些巨頭為何未能自主創(chuàng)新呢?核心原因就在于一個“看不見的假設(shè)”——必須快速商業(yè)化、快速賺錢。在這種心態(tài)下,企業(yè)不敢直面最核心的問題,不敢進行長期的基礎(chǔ)投入。
但更深層次的原因是:兩代互聯(lián)網(wǎng)創(chuàng)業(yè)者,從內(nèi)心深處,就不相信中國企業(yè)有能力做基礎(chǔ)研究。無論是第一代的BAT,還是第二代的頭部企業(yè),他們嘴上說在做,但內(nèi)心深處,即使是中國最頂尖的幾家大廠,也不敢真正相信自己能做出原創(chuàng)性的基礎(chǔ)研究。
請問,在DeepSeek之前,有哪家中國大廠曾公開宣稱:“我中國的模型要做世界第一,我要引領(lǐng)世界”?沒有。
我們一直活在一種《三體》式的思維定勢中——美國人負責原創(chuàng),中國人負責應(yīng)用和商業(yè)化。這便是兩代中國互聯(lián)網(wǎng)創(chuàng)業(yè)者集體潛意識中的“思想鋼印”。
梁文鋒用行動證明了中國公司在AI基礎(chǔ)研究和模型創(chuàng)新方面同樣具備全球領(lǐng)先的實力。這種轉(zhuǎn)變,并非僅僅是追趕,而是真正意義上的“技術(shù)領(lǐng)先”。
在過去30年的IT革命中,中國幾乎沒有真正參與核心技術(shù)革命,我們習慣了摩爾定律從天而降,默認可以等18個月再跟上。這種心態(tài),其實是一種極大的自我矮化。
但梁文鋒和DeepSeek站了出來,用實際行動說:“我們不這樣!” 他們相信技術(shù)進步是西方科技社區(qū)幾代人持續(xù)努力的結(jié)果,我們中國人也應(yīng)該參與其中,而不是僅僅做受益者。這種理念上的轉(zhuǎn)變,是DeepSeek在AI基礎(chǔ)研究領(lǐng)域取得突破的關(guān)鍵動力。
對技術(shù)創(chuàng)新驅(qū)動的創(chuàng)業(yè)者來說,DeepSeek的理念是振聾發(fā)聵的。它呼吁我們打破“思想鋼印”。
你是否也活在“美國做原創(chuàng),中國做應(yīng)用”的思維定勢里?梁文鋒用實踐證明,這種思想鋼印是可以被打破的。中國人第三代創(chuàng)業(yè)者也到了必須做,而且可以做,有能力做原創(chuàng)創(chuàng)新的時候了。這個時候到了,不是你也是他。
所以,要敢于挑戰(zhàn)基礎(chǔ)研究的“無人區(qū)”。不要只盯著眼前的商業(yè)化和利潤,真正的顛覆性創(chuàng)新往往需要長期的投入和對未知的好奇心。創(chuàng)新不僅僅是商業(yè)驅(qū)動的,它需要好奇心和創(chuàng)造的野心。我們只是被習慣束縛住了,這就是你內(nèi)心那根“看不見的馬繩”。
梁文鋒的行為很多時候?qū)σ粋€創(chuàng)業(yè)者的身份來說是“瘋狂”的——在2021年最糟糕的年份,他還投入巨資建設(shè)算力集群,這絕非投機者能做出的決策,而是信仰者。
“我不是因為今天AI火了,我今天做AI的,我是一直有這個夢想的?!?這種純粹的初心,才是支撐人穿越低谷、走向成功的真正動力。
DeepSeek創(chuàng)始人梁文鋒
結(jié)語:
“認知型創(chuàng)新”精髓就在于對技術(shù)本質(zhì)的深刻理解與戰(zhàn)略性重構(gòu)。DeepSeek的出現(xiàn),為中國AI產(chǎn)業(yè)注入了強大信心動力,更點亮了中國在AI時代成為世界基座的希望,這在工業(yè)革命以來是前所未有的。
轉(zhuǎn)念就是改命。如果我們這一代創(chuàng)業(yè)者能夠打破內(nèi)心的思想鋼印,敢于在基礎(chǔ)研究領(lǐng)域邁出那一步,那將是中國創(chuàng)新史上的一個重要轉(zhuǎn)折點。
所以,我們要永遠相信中國,永遠相信創(chuàng)新者。
本文為專欄作者授權(quán)創(chuàng)業(yè)邦發(fā)表,版權(quán)歸原作者所有。文章系作者個人觀點,不代表創(chuàng)業(yè)邦立場,轉(zhuǎn)載請聯(lián)系原作者。如有任何疑問,請聯(lián)系editor@cyzone.cn。