五月天成人小说,中文字幕亚洲欧美专区,久久妇女,亚洲伊人久久大香线蕉综合,日日碰狠狠添天天爽超碰97

見證歷史!DeepSeek躍居全球第二AI實驗室,R1登頂開源王座,R2全網催更

關注
昨晚,終于等到了DeepSeek-R1-0528官宣。升級后的模型性能直逼o3和Gemini 2.5 Pro。如今,DeepSeek真正坐實了全球開源王者的稱號,并成為了第二大AI實驗室。

編者按:本文來自微信公眾號 新智元(ID:AI_era),編輯:犀牛 桃子,創(chuàng)業(yè)邦經授權轉載。

昨晚,DeepSeek正式官宣R1已完成小版本升級,開啟「深度思考」功能即可體驗。

在多項基準測試中,DeepSeek-R1-0528的數(shù)學、編程、通用邏輯性能,足以媲美最強o3和Gemini 2.5 Pro。

而且,它還成為國內首屈一指的開源模型,全面超越Qwen3-235B。

圖片

除了性能刷新SOTA,此次R1的更新,還體現(xiàn)在了其他三方面:

  • 前端代碼生成能力增強

  • 幻覺率降低45%-50%

  • 支持JSON輸出和函數(shù)調用

不僅如此,DeepSeek官方基于Qwen3-8B Base微調了更強版本——DeepSeek-R1-0528-Qwen3-8B。

這款8B模型在AIME 2024上,性能僅次于DeepSeek-R1-0528,甚至可與Qwen3-235B-thinking一較高下。

圖片

如今,DeepSeek不僅穩(wěn)坐世界開源頭把交椅,而且還成為了全球第二大AI實驗室。

圖片

DeepSeek-R1迭代后推理更強,不過已有網友迫不及待催更R2了。

圖片

DeepSeek-R1數(shù)學編程更強了

HF模型卡中,DeepSeek具體公布了模型的更多的細節(jié)和性能對比。

DeepSeek-R1-0528是以DeepSeek V3 Base(2024年12月)為基座進行訓練。

圖片

模型地址:https://huggingface.co/deepseek-ai/DeepSeek-R1-0528

在后訓練階段,R1投入了更多計算資源,并引入了算法優(yōu)化機制,顯著提升了模型的思維深度與推理能力。

如上所述,在數(shù)學、編程、通用邏輯等多項基準測試中,DeepSeek-R1展現(xiàn)出卓越的性能。

圖片

相較于上一代,0528版本在處理復雜推理任務方面取得了顯著進步。比如,在AIME 2025測試中,R1準確率從70%提升到87.5%。

圖片

這一性能的提升,源于推理過程中思維深度的增強。

在AIME測試集中,DeepSeek-R1平均每個問題消耗12K token,而DeepSeek-R1-0528平均每個問題使用23K token。

在外部多語言Aider基準測試,結果顯示,DeepSeek-R1-0528達到了與Claude 4 Opus相當?shù)乃?,Pass@2得分為70.7%。

圖片

圖片

幻覺率暴減50%

此前,有很多報道分析稱,DeepSeek-R1雖比V3強,但幻覺率極高。

根據(jù)Vectara的測試,DeepSeek-R1幻覺率高達14.3%,比o3高出不少。

圖片

這一次,經過優(yōu)化,與初代相比,DeepSeek-R1-0528的幻覺率降低了45%-50%。

尤其是,在改寫潤色、總結摘要、閱讀理解等場景中,新模型能提供更加準確、可靠的結果。

而且,DeepSeek-R1還專門針對論文、小說、散文等問題,進行了進一步優(yōu)化。

由此,它能夠輸出篇幅更長、結構內容更完整的長篇大作,更加貼近人類偏好的寫作風格。

圖片

艾倫研究所Nathan Lambert通過實驗發(fā)現(xiàn),R1-0528在編譯智能體基準上,表現(xiàn)非常穩(wěn)健。

圖片

支持工具調用

值得一提的是,DeepSeek-R1-0528還可以支持工具調用。

比如,讓它總結一篇文章,附上一個鏈接后,模型會主動調用爬蟲插件獲取網頁內容,然后進行總結。

它在Tau-Bench的測評成績?yōu)閍irline 53.5%/retail 63.9%,與o1-high性能相當,但與o3-High、Claude 4 Sonnet仍有一定的差距。

圖片

圖源:DeepSeek

在前端代碼生成、角色扮演等方面,DeepSeek-R1-0528能力得到了進一步提升。

比如,制作一張英文單詞的復習卡片應用,短短幾分鐘,一個完整的APP就呈現(xiàn)了,包括復習卡片、搜索卡片、學習統(tǒng)計、創(chuàng)建卡片基本功能一應俱全。

而且,DeepSeek-R1函數(shù)調用支持增強,還為氛圍編程(vibe coding)提供了更流暢的體驗。

圖片圖源:DeepSeek

DeepSeek蒸餾版Qwen3-8B來了

在R1更新升級的同時,DeepSeek還蒸餾了DeepSeek-R1-0528的思維鏈,然后訓練了Qwen3-8B Base,最后得到了DeepSeek-R1-0528-Qwen3-8B。

DeepSeek表示,DeepSeek-R1-0528的思維鏈對于學術界推理模型的研究和工業(yè)界針對小模型的開發(fā)都將具有重要意義。

DeepSeek-R1-0528-Qwen3-8B模型在數(shù)學測試AIME 2024中僅次于DeepSeek-R1-0528,超越Qwen3-8B(+10.0%),與Qwen3-235B相當。

這個結果還是挺夸張的,畢竟與Qwen3-235B相比,8B的模型在參數(shù)上相差將近30倍。

同時DeepSeek-R1-0528-Qwen3-8B的數(shù)學性能也強于最近的Phi-4 14B。

圖片

DeepSeek-R1-0528-Qwen3-8B等開源模型的AIME 2024對比結果

在數(shù)學性能上,DeepSeek-R1-0528-Qwen3-8B甚至超越了Gemini-2.5-Flash。

圖片

DeepSeek-R1-0528-Qwen3-8B等不同模型在多個基準測試中的性能

目前,這款8B蒸餾模型也已同步在Hugging Face上開源。

圖片

模型地址:https://huggingface.co/deepseek-ai/DeepSeek-R1-0528-Qwen3-8B

全球第二大AI實驗室榮光屬于DeepSeek

就在DeepSeek R1更新后不久,獨立AI分析網站Artificial Analysis發(fā)帖表示,DeepSeek的R1強勢超越xAI、Meta和Anthropic。

圖片

這使得DeepSeek一躍成為全球第二大AI實驗室,并無可爭議的成為開源模型的領導者。

圖片

DeepSeek-R1-0528在智能指數(shù)中從60分躍升至68分,提升幅度與OpenAI的o1到o3(62分到70分)進步相當。

這使得DeepSeek R1的智能水平超過了xAI的Grok 3 mini(High)、NVIDIA的Llama Nemotron Ultra、Meta的Llama 4 Maverick、阿里的Qwen 3 253B,與谷歌的Gemini 2.5 Pro并駕齊驅。

圖片

這些進步給AI領域帶來了不少的啟示:

  • 開源與閉源模型差距縮小:DeepSeek今年1月的R1發(fā)布首次讓開源模型登上第二位,這次的R1更新再次鞏固了這一地位。


  • 中國與美國AI并駕齊驅:來自中國AI實驗室的模型幾乎完全趕上了美國。目前,DeepSeek在人工智能分析智能指數(shù)中領先于美國AI實驗室如Anthropic和Meta。


  • 強化學習驅動進步:DeepSeek在相同架構和預訓練基礎上展示了顯著的智能提升。這凸顯了后訓練的重要性,尤其是通過RL技術訓練的推理模型。OpenAI披露o1到o3的RL計算規(guī)模擴大了10倍——DeepSeek證明了他們目前能跟上OpenAI的RL計算擴展。擴展RL比擴展預訓練需要的計算資源更少,是實現(xiàn)智能提升的高效方式,更適合GPU較少的AI實驗室。


參考資料:

https://huggingface.co/deepseek-ai/DeepSeek-R1-0528

https://x.com/deepseek_ai/status/1928061589107900779

https://huggingface.co/deepseek-ai/DeepSeek-R1-0528-Qwen3-8B

https://techcrunch.com/2025/05/29/deepseeks-distilled-new-r1-ai-model-can-run-on-a-single-gpu/

https://x.com/ArtificialAnlys/status/1928071179115581671

本文為專欄作者授權創(chuàng)業(yè)邦發(fā)表,版權歸原作者所有。文章系作者個人觀點,不代表創(chuàng)業(yè)邦立場,轉載請聯(lián)系原作者。如有任何疑問,請聯(lián)系editor@cyzone.cn。

反饋
聯(lián)系我們
推薦訂閱