2月24日消息,隨著DeepSeek大模型開源引發(fā)全球熱潮后,2月21日DeepSeek在社交平臺X發(fā)文稱,這周起會(huì)陸續(xù)開源5個(gè)代碼庫。
今天DeepSeek開源首個(gè)代碼庫Flash MLA,引發(fā)極大關(guān)注,截至目前github Star星數(shù)已經(jīng)超過4.5k。
Flash MLA是DeepSeek針對英偉達(dá)Hopper GPU優(yōu)化的高效MLA解碼內(nèi)核,其特別針對可變長度序列作了優(yōu)化,現(xiàn)已投入生產(chǎn)。
FlashMLA的使用基準(zhǔn)為:Hopper GPU、CUDA 12.3及以上版本、PyTorch 2.0及以上版本。
經(jīng)實(shí)測,F(xiàn)lashMLA在H800 SXM5平臺上(CUDA 12.6),在內(nèi)存受限配置下可達(dá)最高3000GB/s,在計(jì)算受限配置下可達(dá)峰值580 TFLOPS。
這種優(yōu)化可以確保FlashMLA在高性能硬件上有效地處理大語言模型和其他AI應(yīng)用程序的密集計(jì)算需求。
目前已經(jīng)發(fā)布的內(nèi)容包括:采用BF16,塊大小為64的分頁kvcache(鍵值緩存)。
團(tuán)隊(duì)在致謝部分表示,F(xiàn)lashMLA的設(shè)計(jì)參考了FlashAttention 2&3以及CUTLASS的技術(shù)實(shí)現(xiàn)。
資料顯示,F(xiàn)lashAttention 是一種針對Transformer模型注意力計(jì)算的高效優(yōu)化算法,由斯坦福團(tuán)隊(duì)于2022年提出,核心目標(biāo)是通過硬件感知的內(nèi)存管理和計(jì)算流程重構(gòu),顯著降低長序列處理時(shí)的顯存占用與計(jì)算延遲。
CUTLASS(CUDA Templates for Linear Algebra Subroutines)是NVIDIA推出的開源高性能計(jì)算庫,專為GPU加速的線性代數(shù)計(jì)算(尤其是矩陣乘法和卷積)設(shè)計(jì)。其核心目標(biāo)是通過模塊化模板和硬件級優(yōu)化,為開發(fā)者提供靈活、高效的底層計(jì)算內(nèi)核,支撐AI訓(xùn)練、科學(xué)計(jì)算與圖形渲染等領(lǐng)域。
根據(jù)DeepSeek過往提交的論文,DeepSeek大模型訓(xùn)練成本大幅下降有兩項(xiàng)關(guān)鍵技術(shù),一是MoE,另一個(gè)就是今天開源的MLA(多頭潛注意力)。
DeepSeek的成本涉及兩項(xiàng)關(guān)鍵的技術(shù):一個(gè)是MoE,一個(gè)就是MLA(Multi-head Latent Attention,多頭潛注意力)。
MLA旨在優(yōu)化傳統(tǒng)Transformer架構(gòu)的效率與性能,其核心原理包括:
KV壓縮與潛在變量:將鍵(Key)和值(Value)聯(lián)合壓縮為低維潛在向量,顯著減少推理時(shí)的KV緩存,降低內(nèi)存占用。計(jì)算時(shí)通過升維恢復(fù)原始信息,平衡壓縮效率與計(jì)算精度。
低秩降維技術(shù):對查詢(Queries)進(jìn)行低秩壓縮(降維后再升維),減少訓(xùn)練中的激活內(nèi)存(activation memory),但需注意此操作不影響KV緩存。
動(dòng)態(tài)序列處理:針對可變長度輸入序列優(yōu)化,支持高效處理不同長度的句子(如長文本對話場景)。
MLA可將每個(gè)查詢KV緩存量減少93.3%,顯著減少了大模型訓(xùn)練和推理過程中的內(nèi)存占用
今天開源的MLA是DeepSeek在注意力機(jī)制上的重要?jiǎng)?chuàng)新,通過KV壓縮、低秩降維等技術(shù)實(shí)現(xiàn)高效長序列處理與資源優(yōu)化,成為其模型性能領(lǐng)先的關(guān)鍵技術(shù)之一。
本周后續(xù),DeepSeek還將陸續(xù)開源4個(gè)代碼庫,期待一下?。ㄒ嗽拢?/p>
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )