11月12日,阿里云通義大模型團(tuán)隊開源通義千問代碼模型全系列,共6款Qwen2.5-Coder模型。相關(guān)評測顯示,6款代碼模型在同等尺寸下均取得了業(yè)界最佳效果,其中32B尺寸的旗艦代碼模型在十余項基準(zhǔn)評測中均取得開源最佳成績,成為全球最強(qiáng)開源代碼模型,同時,該代碼模型還在代碼生成等多項關(guān)鍵能力上超越閉源模型GPT-4o?;赒wen2.5-Coder,AI編程性能和效率均實現(xiàn)大幅提升,編程“小白”也可輕松生成網(wǎng)站、數(shù)據(jù)圖表、簡歷、游戲等各類應(yīng)用。
編程語言是高度邏輯化和結(jié)構(gòu)化的,代碼模型要求理解、生成和處理這些復(fù)雜的邏輯關(guān)系和結(jié)構(gòu),通常也被認(rèn)為是大模型邏輯能力的基礎(chǔ)來源之一,對于整體提升大模型推理能力至關(guān)重要。Qwen2.5-Coder基于Qwen2.5基礎(chǔ)大模型進(jìn)行初始化,使用源代碼、文本代碼混合數(shù)據(jù)、合成數(shù)據(jù)等5.5T tokens的數(shù)據(jù)持續(xù)訓(xùn)練,實現(xiàn)了代碼生成、代碼推理、代碼修復(fù)等核心任務(wù)性能的顯著提升。
其中,本次新發(fā)布的旗艦?zāi)P蚎wen2.5-Coder-32B-Instruct,在EvalPlus、LiveCodeBench、BigCodeBench等十余個主流的代碼生成基準(zhǔn)上,均刷新了開源模型的得分紀(jì)錄,并在考察代碼修復(fù)能力的Aider、多編程語言能力的McEval等9個基準(zhǔn)上優(yōu)于GPT-4o,實現(xiàn)了開源模型對閉源模型的反超。
在代碼推理方面,Qwen2.5-Coder-32B-Instruct刷新了CRUXEval-O基準(zhǔn)開源模型的最佳紀(jì)錄。Qwen2.5-Coder-32B-Instruct在40 余種編程語言中表現(xiàn)優(yōu)異,在McEval基準(zhǔn)上取得了所有開閉源模型的最高分,并斬獲考察多編程語言代碼修復(fù)能力的MdEval基準(zhǔn)的開源冠軍。
此次開源,Qwen2.5-Coder推出0.5B/1.5B/3B/7B/14B/32B 等6個尺寸的全系列模型,每個尺寸都開源了Base 和 Instruct 模型,其中,Base模型可供開發(fā)者微調(diào),Instruct模型則是開箱即用的官方對齊模型,所有Qwen2.5-Coder模型在同等尺寸下均取得了模型效果最佳(SOTA)表現(xiàn)。
Qwen2.5-Coder全系列開源,可適配更多應(yīng)用場景,無論在端側(cè)還是云上,都可以讓AI大模型更好地協(xié)助開發(fā)者完成編程開發(fā),即便是編程“小白”,也可基于內(nèi)置Qwen2.5-Coder的代碼助手和可視化工具,用自然語言對話生成網(wǎng)站、數(shù)據(jù)圖表、簡歷和游戲等各類應(yīng)用。
截至目前,Qwen2.5已開源100多個大語言模型、多模態(tài)模型、數(shù)學(xué)模型和代碼模型,幾乎所有模型都實現(xiàn)了同等尺寸下的最佳性能。據(jù)了解,全球基于Qwen系列二次開發(fā)的衍生模型數(shù)量9月底突破7.43萬,超越Llama系列衍生模型的7.28萬,通義千問已成為全球最大的生成式語言模型族群。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )