標題:阿里云發(fā)布通義千問 QwQ-32B:1/20參數(shù)超越DeepSeek R1,驚艷推理模型革新
隨著人工智能技術(shù)的飛速發(fā)展,強化學(xué)習(xí)在模型推理能力上的提升備受矚目。近日,阿里云通義千問推出的最新推理模型 QwQ-32B,憑借其強大的性能和潛力,引發(fā)了業(yè)內(nèi)的廣泛關(guān)注。
首先,讓我們來了解一下 QwQ-32B 的背景。這款擁有 320 億參數(shù)的模型,其性能可與具備 6710 億參數(shù)(其中 370 億被激活)的 DeepSeek-R1 相媲美。這一成果凸顯了將強化學(xué)習(xí)應(yīng)用于經(jīng)過大規(guī)模預(yù)訓(xùn)練的強大基礎(chǔ)模型的有效性。
QwQ-32B 的推出,不僅展示了阿里云在強化學(xué)習(xí)領(lǐng)域的突破,也揭示了預(yù)訓(xùn)練語言模型中尚未開發(fā)的可能性。這是 Qwen 在大規(guī)模強化學(xué)習(xí)以增強推理能力方面的第一步,預(yù)示著未來更強大、更接近實現(xiàn)人工通用智能(AGI)的模型即將到來。
在性能方面,阿里云對 QwQ-32B 進行了全面測試,包括數(shù)學(xué)推理、編程能力和通用能力等。測試結(jié)果顯示,QwQ-32B 在 AIME24 評測集上的表現(xiàn)與 DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-70B、o1-mini 以及原始的 DeepSeek-R1 等領(lǐng)先模型相當。而在 LiveCodeBench 和 Meta 首席科學(xué)家楊立昆領(lǐng)銜的“最難 LLMs 評測榜” LiveBench、谷歌等提出的指令遵循能力 IFEval 評測集、由加州大學(xué)伯克利分校等提出的評估準確調(diào)用函數(shù)或工具方面的 BFCL 測試中,QwQ-32B 的表現(xiàn)更是遠勝于 DeepSeek-R1。
更為引人注目的是,QwQ-32B 的性能超越了 DeepSeek-R1,但其參數(shù)卻僅為后者的 1/20。這一突破性的成果,無疑為推理模型的革新揭開了新的篇章。
然而,這并不是阿里云在強化學(xué)習(xí)領(lǐng)域的終點。為了進一步推動人工智能技術(shù)的發(fā)展,阿里云計劃將更強大的基礎(chǔ)模型與依托規(guī)模化計算資源的 RL 相結(jié)合。通過將智能體與 RL 集成,實現(xiàn)長時推理,目標是釋放更高的智能。這一創(chuàng)新性的舉措,無疑將為人工智能的發(fā)展注入新的活力。
總的來說,阿里云發(fā)布的通義千問 QwQ-32B 憑借其強大的性能和潛力,引發(fā)了業(yè)界的廣泛關(guān)注。這一成果不僅展示了強化學(xué)習(xí)的巨大潛力,也揭示了預(yù)訓(xùn)練語言模型中尚未開發(fā)的可能性。在未來的發(fā)展中,我們有理由期待阿里云將為我們帶來更多驚喜和創(chuàng)新。
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )