最近,DeepSeek-V3在國外火了。
它為什么火呢?主要有三個原因:一,性能非常出色。
在許多測試中,它都超過了其他頂尖模型,比如GPT-4o和Claude 3.5 Sonnet。特別在數(shù)學(xué)和代碼生成方面,表現(xiàn)尤為突出。
二,它的訓(xùn)練成本相對較低。只要600萬美元就能完成訓(xùn)練,與其他頂級模型相比,性價比極高。三,它是開源的。全球的開發(fā)者都可以免費使用和測試它。
因此,它火了。不過,隨著它的火爆,很多人開始好奇:這個模型來自哪里?它與其他模型有何不同?
帶著同樣的疑問,我查看了它12月26日在GitHub上發(fā)布的報告——DeepSeek-V3 Technical Report??偨Y(jié)出了五點內(nèi)容,關(guān)于模型架構(gòu)設(shè)計、基礎(chǔ)設(shè)施、預(yù)訓(xùn)練、后訓(xùn)練模型,以及評估結(jié)果?,F(xiàn)在,向你匯報一下。
先來說說這家公司:
DeepSeek-V3是由中國幻方量化公司開發(fā),它是基于自研MoE模型的新一代大語言模型。
MoE,全稱Mixture of Experts,也叫混合專家技術(shù),是一種機器學(xué)習(xí)架構(gòu),是通過組合多個專家模型,在處理復(fù)雜任務(wù)時,讓效率和準確度都大大提升。
以前,人們總愛把「DeepSeek」比作:AI界的拼多多。
因為它開啟了中國大模型價格戰(zhàn)。2024年5月,它們推出了一個叫DeepSeek V2的開源模型。這個模型的性價比超級高,每百萬個token的推理計算成本只要1塊錢。
這個價格,大概是Llama3 70B的1/7,也是GPT-4 Turbo的1/70。
這個消息一出來,字節(jié)、騰訊、百度、阿里,還有kimi這些AI公司,都跟著降價。所以,DeepSeek憑借它的高性價比,在中國大模型市場掀起了第一場價格戰(zhàn)。
但是,V2.5版本的更新速度不快,直到9月份才有動靜;現(xiàn)在又過了3個月,V3版本終于來了。這次,大家最想知道的就是,它的架構(gòu)有什么新變化。
這家公司的老板梁文鋒說過,以前中國公司習(xí)慣于做應(yīng)用變現(xiàn),但現(xiàn)在DeepSeek的目標是走在技術(shù)前沿。他希望用技術(shù)推動整個生態(tài)的發(fā)展。他認為,中國公司應(yīng)該從搭便車的角色,轉(zhuǎn)變?yōu)樨暙I者,主動參與到全球創(chuàng)新的大潮中。
那么,DeepSeek-V3到底有哪些技術(shù)架構(gòu)上新亮點呢?
圖釋:DeepSeek-V3MoE架構(gòu)工作流程
報告中(第4P到第6P部分)說:DeepSeek-V3架構(gòu)設(shè)計非常精巧,主要有四點:
專家團(MoE架構(gòu))
多頭潛在注意力(MLA)
無輔助損失的負載平衡策略
多令牌預(yù)測訓(xùn)練目標
分別什么意思呢?首先,DeepSeek-V3它有671億個參數(shù),像一個超級大腦。這個大腦用的技術(shù)叫做MoE架構(gòu),就是混合專家技術(shù)。這意味著,它里面有很多專家模型,但每次只要37億個參數(shù)來工作就可以了。
為了讓專家模型高效工作,DeepSeek-V3得有個聰明的調(diào)度員,確保每個專家都有活干,不會有的很忙,有的很閑。
DeepSeek-V3裝在了信息過濾器,叫做「MLA」,它能讓模型只關(guān)注信息中的重要部分,不會被不重要的細節(jié)分散注意力。
但是,這樣好不夠,DeepSeek-V3還得確保每個專家都能得到合理的工作量,并且訓(xùn)練模型去預(yù)測接下來的幾個步驟,不只是下一步;這就是無輔助損失的負載平衡策略和多令牌預(yù)測訓(xùn)練目標的用處。
簡單來說,讓每個專家都有合理的工作量,同時訓(xùn)練模型去預(yù)測接下來的幾個步驟,這樣模型在實際工作中就能表現(xiàn)得更好,比如在處理長篇文章時能更好地理解上下文。
所以,DeepSeek-V3的架構(gòu)有四個要點:
一,MLA技術(shù),通過壓縮注意力機制減少需要處理的信息量,提高效率。二,DeepSeekMoE技術(shù),用更細粒度的專家和共享專家提高訓(xùn)練效率,并且動態(tài)調(diào)整專家間的工作量均衡。
三,無輔助損失的負載平衡策略,確保專家間工作量均衡,不依賴額外的損失項;四,多令牌預(yù)測訓(xùn)練目標,提高模型的預(yù)測能力和數(shù)據(jù)效率。
總之,DeepSeek-V3的架構(gòu),像一個高效的團隊,每個成員都有特定的任務(wù),而且團隊能夠預(yù)測并準備接下來的工作,這樣的設(shè)計才能讓模型在處理信息時既快速又準確。
報告第11頁到第12頁,詳細講解了DeepSeek-V3的訓(xùn)練技術(shù)。首先,DeepSeek-V3是在擁有2048個NVIDIA H800 GPU的超級計算機上訓(xùn)練。
這些GPU通過NVlink和NVSwitch在單個節(jié)點內(nèi)連接,節(jié)點之間則通過InfiniBand(IB)連接,形成了一個強大的分布式計算網(wǎng)絡(luò)。
接下來,說說訓(xùn)練框架。DeepSeek-V3用了一個叫做DualPipe的算法,這個算法能讓模型更智能地分配任務(wù),減少等待時間,確保每個部分都能在正確的時間做正確的事。
這個算法具體包括兩點:
一,DualPipe和計算通信重疊。就像兩組工人,一組加工零件,一組準備材料。如果他們不同步,加工好的零件就會堆積。
DeepSeek-V3的DualPipe算法讓這兩組工人的工作節(jié)奏同步,一邊加工零件,一邊準備材料,這樣就沒有等待時間,生產(chǎn)過程更流暢。
二,高效實現(xiàn)跨節(jié)點全對全通信。想象一個大工廠,不同車間需要共享信息。DeepSeek-V3通過高效的通信技術(shù),確保不同車間(計算節(jié)點)之間的信息能快速共享,就像建立了一個快速的信息傳遞網(wǎng)絡(luò)。
兩者組合,能讓有限的硬件資源下訓(xùn)練更大的模型。
有了算法還不夠,還要精練。怎么精練?DeepSeek-V3推出了一種叫FP8的新技術(shù)。簡單來說,通過五個小點步驟用更小的數(shù)字代替原來的大數(shù)字,讓計算機更快地做計算,同時節(jié)省電。
舉個例子:
在超市買東西,大多數(shù)時不用精確到小數(shù)點后,大概齊就行了。但是,用小數(shù)字代替大數(shù)字可能會影響精細工作。
怎么辦?DeepSeek-V3在關(guān)鍵的地方,會用更精確的大數(shù)字(FP32)來確保質(zhì)量,比如:矩陣乘法,這就像在做精細活兒時,關(guān)鍵步驟用好工具,其他時候用差點的也沒事。
在訓(xùn)練過程中,DeepSeek-V3還會用FP8來存儲中間結(jié)果,節(jié)省更多的內(nèi)存空間。這像整理東西時,不用把所有東西都放在顯眼的地方,而是合理地收納起來,需要時再拿出來。
最后,DeepSeek-V3在實際使用時,也會根據(jù)情況來決定用不用FP8,這樣就能在保證效果的同時,讓模型跑得更快,更省資源。
如同,我們在日常生活中,根據(jù)不同的情況來選擇不同的工具,既高效又節(jié)約,這就是,它的底層基礎(chǔ)技術(shù)。
DeepSeek-V3是怎么做預(yù)訓(xùn)練的呢?
報告里說,DeepSeek-V3的預(yù)訓(xùn)練涉及到六個方面:數(shù)據(jù)建設(shè)、超參數(shù)調(diào)整、長上下文擴展、評估基準、消融研究,還有輔助無損耗平衡策略。
首先是「數(shù)據(jù)建設(shè)」。
DeepSeek-V3用了14.8萬億個高質(zhì)量的數(shù)據(jù)點來訓(xùn)練,這些數(shù)據(jù)覆蓋了很多不同的領(lǐng)域和語言,這樣模型就能學(xué)到很多不同的知識。
然后,在訓(xùn)練開始之前,得設(shè)置一些重要的參數(shù),比如學(xué)習(xí)率。DeepSeek-V3會仔細挑選這些參數(shù),讓模型能以最好的方式學(xué)習(xí),這叫超參數(shù)調(diào)整(Hyper-Parameters)。
緊接著,對長上下文擴展(Long Context Extension)。
這就像教模型讀長故事。DeepSeek-V3用了一些特別的技術(shù),比如YaRN,來增加模型能處理的文本長度,從4K字節(jié)增加到128K字節(jié)。這樣,模型就能理解更長的文章和故事了。
在學(xué)習(xí)的過程中,還得檢查模型學(xué)得怎么樣。這就是「評估基準」的作用。DeepSeek-V3會在各種測試上進行評估,比如MMLMU-Pro、GPQA-Diamond等,確保模型在不同的任務(wù)上都能表現(xiàn)得很好。
圖釋:DeepSeek-V3訓(xùn)練數(shù)據(jù)的方法
消融研究(ablation experiment)是什么?
DeepSeek-V3會做很多實驗,看看哪些方法最管用。比如研究無輔助損失的負載平衡策略,找出哪些技術(shù)最能提高模型的性能等等。
最后,模型通過動態(tài)調(diào)整,使得每個專家的工作量更加均衡,而不是通過輔助損失來強制平衡。如此一來,預(yù)訓(xùn)練階段就能吸收和處理很多信息,學(xué)會理解和生成文本,為后面的訓(xùn)練打下堅實的基礎(chǔ)。
看完這段報告覺得,像給一個5歲孩子提供學(xué)習(xí)資源和環(huán)境一樣,讓他在成長過程中能夠全面發(fā)展。
問題是:只有預(yù)訓(xùn)練還不夠,后訓(xùn)練才能讓模型更成熟。那么,DeepSeek-V3是怎么做的后訓(xùn)練呢?
首先是監(jiān)督微調(diào)(Supervised Fine-Tuning, SFT)。
DeepSeek團隊為模型準備了150萬個實例的特別訓(xùn)練集,就像是一本包含各種生活場景的百科全書。每個訓(xùn)練集都是精心設(shè)計,確保模型能學(xué)會在不同情況下應(yīng)該怎么處理。
對于那些需要邏輯和計算的數(shù)據(jù),比如數(shù)學(xué)問題或者編程挑戰(zhàn),團隊用了一個已經(jīng)訓(xùn)練好的模型(DeepSeek-R1)來生成例子。
雖然這些例子通常很準確,但有時可能太復(fù)雜或者格式不規(guī)范。所以,團隊的目標是讓數(shù)據(jù)既準確又容易理解。
為了做到這一點,他們結(jié)合了(監(jiān)督微調(diào)(SFT)和強化學(xué)習(xí)(Reinforcement Learning, RL)的方法,訓(xùn)練了一些「專家模型」。這些專家模型就像專業(yè)的老師,負責(zé)教最終的模型如何在特定領(lǐng)域做得更好。
在訓(xùn)練過程中,他們會創(chuàng)造兩種類型的例子:一種是直接的問題和答案,另一種是加上了「系統(tǒng)提示」的問題、答案和R1模型的響應(yīng)。這些系統(tǒng)提示就像教學(xué)大綱,指導(dǎo)模型如何給出有深度和經(jīng)過驗證的答案。
對了,在「強化學(xué)習(xí)」階段,模型會嘗試不同的回答,根據(jù)效果得到獎勵或懲罰。
經(jīng)過這個過程,模型自己學(xué)會給出更好的答案;最后,團隊會用「拒絕采樣」的方法挑選最好的示例,用于最終模型的訓(xùn)練,這確保了模型學(xué)習(xí)的數(shù)據(jù)既準確又容易理解。
對于非推理數(shù)據(jù),比如:
寫故事或者角色扮演,團隊用了另一個模型(DeepSeek-V2.5)來生成回答,然后讓人工檢查這些回答是否準確和合適。這兩個步驟,報告中稱之為「評價標準」。
最后,DeepSeek團隊對DeepSeek-V3-base進行了兩個時期的微調(diào),采用了從5×10^-6到1×10^-6的「余弦衰減學(xué)習(xí)率調(diào)度」。
在訓(xùn)練期間,每個序列都由多個樣本組成,但他們采用了「樣本屏蔽策略」,確保示例相互獨立,這是一種「開放評估」的模型。
通過這些后訓(xùn)練步驟,DeepSeek-V3能夠在實際應(yīng)用中做到更加精準,就像在完成基礎(chǔ)訓(xùn)練后,再給它進行一些專業(yè)技能的培訓(xùn)。
他們起的名字叫「生成獎勵模型」,讓它不僅是一個學(xué)習(xí)者,它還變成了一個評委;這樣周而復(fù)始的,如同建立一套正向反饋機制一樣。
那么,通過這套模型訓(xùn)練出來的成果如何呢?
DeepSeek-V3做了一系列的全面基準測試,這像給超級大腦出了一套標準化的試卷,看看它在各個科目上能得多少分。這些科目包括教育知識、語言理解、編程技能、數(shù)學(xué)問題解決等等。
數(shù)學(xué)推理上:
在MATH-500測試中,DeepSeek-V3得了90.2分,這個分數(shù)不僅比所有開源競爭對手高,比如Qwen 2.5的80分和Llama 3.1的73.8分,而且也超過了閉源模型GPT-4o的74.6分。
在MGSM(數(shù)學(xué)小學(xué)數(shù)學(xué))測試中,DeepSeek-V3得了79.8分,超過了Llama 3.1的69.9分和Qwen 2.5的76.2分。在CMath(中國數(shù)學(xué))測試中,DeepSeek-V3得了90.7分,比Llama 3.1的77.3分和GPT-4o的84.5分都要好。
圖解:DeepSeek-V3基準測試數(shù)據(jù)
編程和編碼能力方面:
在LiveCodeBench測試中,DeepSeek-V3的通過率達到了37.6%,領(lǐng)先于Llama 3.1的30.1%和Claude 3.5 Sonnet的32.8%。
在Humaneval-Mul測試中,DeepSeek-V3得了82.6%,比Qwen 2.5的77.3%高,并且和GPT-4o的80.5%差不多。在CRUXeval-I測試中,DeepSeek-V3得了67.3%,明顯優(yōu)于Qwen 2.5的59.1%和Llama 3.1的58.5%。
在多語言和非英語任務(wù)上:
在CMMLU(中文多語言理解)測試中,DeepSeek-V3得了88.8分,低于Qwen 2.5的89.5分,領(lǐng)先于Llama 3.1的73.7分。
在C-eval,中國評估基準測試中,DeepSeek-V3得了90.1分,遠遠領(lǐng)先于Llama 3.1的72.5分。
其他數(shù)據(jù)還有很多,總的來說,DeepSeek-V3成績遙遙領(lǐng)先;對了,還有一句要提的是:DeepSeek-V3的訓(xùn)練成本只有557.6萬美元,這只是訓(xùn)練meta的Llama 3.1所需估計的5億美元的一小部分。
所以,DeepSeek-V3新的模型結(jié)構(gòu),無疑是如今人工智能領(lǐng)域中一次新的變革。高效、省力、省成本;難怪連OpenAI的前首席科學(xué)家Andrej Karpathy也表示,這是一次令人印象深刻的展示。
如果DeepSeek-V3在資源有限的情況下,都能表現(xiàn)出如此卓越的工程能力,以后是不是不需要大型GPU集群了?值得思考。
看完覺得寫得好的,不防打賞一元,以支持藍海情報網(wǎng)揭秘更多好的項目。