1月27日凌晨,阿里云通義重磅開源支持100萬Tokens上下文的Qwen2.5-1M模型,推出7B及14B兩個尺寸,均在處理長文本任務(wù)中穩(wěn)定超越GPT-4o-mini;同時開源推理框架,在處理百萬級別長文本輸入時可實現(xiàn)近7倍的提速。
百萬Tokens長文本,可換算成10本長篇小說、150小時演講稿或3萬行代碼。兩個月前, Qwen2.5-Turbo 升級了百萬Tokens的上下文輸入能力,廣受開發(fā)者和企業(yè)歡迎。如今,開源社區(qū)可基于全新的 Qwen2.5-1M 系列模型,進行長篇小說或多篇學術(shù)論文的解析,或是探索倉庫級代碼的分析和升級。
Qwen2.5-1M擁有優(yōu)異的長文本處理能力。在上下文長度為100萬 Tokens 的大海撈針(Passkey Retrieval)任務(wù)中,Qwen2.5-1M 能夠準確地從 1M 長度的文檔中檢索出隱藏信息,僅有7B模型出現(xiàn)了少量錯誤。在RULER、LV-Eval等基準對復雜長上下文理解任務(wù)測試中,Qwen2.5-14B-Instruct-1M 模型不僅擊敗了自家閉源模型 Qwen2.5-Turbo,還穩(wěn)定超越 GPT-4o-mini,為開發(fā)者提供了一個現(xiàn)有長上下文模型的優(yōu)秀開源替代。
大模型的長文本訓練需要消耗大量的計算資源,通義團隊通過逐步擴展長度的方法,從預訓練到監(jiān)督微調(diào)再到強化學習等多個階段,高效地將 Qwen2.5-1M 的上下文長度從 4K 擴展到 256K;再通過長度外推的技術(shù),創(chuàng)新引入Dual Chunk Attention機制,在無需額外訓練的情況下,將上下文長度高性能地穩(wěn)定擴展到1M,從而在較低成本下實現(xiàn)了 Qwen2.5-1M 模型。
同時,為了加快推理速度,通義團隊在vLLM推理引擎基礎(chǔ)上,引入基于Minference的稀疏注意力機制,并在分塊預填充、集成長度外推方案和稀疏性優(yōu)化等多環(huán)節(jié)創(chuàng)新改進?;谶@些改進的推理框架有效地加快了模型推理速度,在不同模型大小和 GPU 設(shè)備上,處理 1M 長度輸入序列的預填充速度提升了 3.2 倍到 6.7 倍。
據(jù)了解,Qwen2.5-1M已經(jīng)在魔搭社區(qū)ModelScope和HuggingFace等平臺開源,開發(fā)者可前往下載或直接體驗模型;相關(guān)推理框架也已在GitHub上開源,幫助開發(fā)者更高效地部署Qwen2.5-1M模型。開發(fā)者和企業(yè)也可通過阿里云百煉平臺調(diào)用 Qwen2.5-Turbo 模型API,或是通過全新的Qwen Chat平臺體驗模型性能及效果。
附鏈接:
演示Demo:https://www.modelscope.cn/studios/Qwen/Qwen2.5-1M-Demo
Modelscope:https://www.modelscope.cn/organization/Qwen
Huggingface:https://huggingface.co/Qwen
開源框架地址:https://github.com/QwenLM/vllm/tree/dev/dual-chunk-attn
Qwen Chat體驗:https://chat.qwenlm.ai/
- 連續(xù)6年位居榜首,阿里云持續(xù)領(lǐng)跑中國關(guān)系型數(shù)據(jù)庫市場
- 華為云發(fā)布盤古大模型5.5,宣布新一代昇騰AI云服務(wù)上線,成就行業(yè)AI先鋒
- 阿里云將在韓國啟用第二座數(shù)據(jù)中心,加速海外布局
- Canalys:2025年Q1全球云服務(wù)支出同比增長21%,TOP3云商占比65%
- 云戰(zhàn)略決策指南:10個核心云部署模型深度解析
- 新大航海時代“云上闖關(guān)”,阿里云筑牢技術(shù)“硬核后盾”,為中國企業(yè)出海“一鍵通關(guān)”
- 阿里云CEO吳泳銘:與中國企業(yè)在全球并肩前行,共赴新的大航海時代
- 日經(jīng)新聞稱阿里通義千問已成日本AI開發(fā)基礎(chǔ)
- 阿里云基礎(chǔ)網(wǎng)絡(luò)技術(shù)5 篇論文入選全球網(wǎng)絡(luò)頂會NSDI 2025
- 2024年第四季度中國大陸云服務(wù)支出達到111億美元,阿里華為騰訊居前三
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。