強化學習展現(xiàn)“反直覺”優(yōu)勢——小米大模型團隊登頂音頻理解和推斷 MMAU 榜單

面對一段汽車行駛中的座艙錄音,AI 能否判斷出汽車是否存在潛在的故障?在交響樂演出現(xiàn)場,AI 能否推測出作曲家創(chuàng)造這首音樂時的心情?在早高峰地鐵站混亂的腳步聲潮中,AI 能否預(yù)判閘機口可能發(fā)生的沖撞風險?在大模型時代,人們已經(jīng)不滿足于機器僅僅識別說話的內(nèi)容、聲音的種類,更期望機器具備復(fù)雜推理的能力。

MMAU(Massive Multi-Task Audio Understanding and Reasoning)評測集(https://arxiv.org/abs/2410.19168)是這種音頻理解和推斷能力的量化標尺,它通過一萬條涵蓋語音、環(huán)境聲和音樂的音頻樣本,結(jié)合人類專家標注的問答對,測試模型在27種技能,如跨場景推理、專業(yè)知識等應(yīng)用上的表現(xiàn),期望模型達到接近人類專家的邏輯分析水平。

作為基準上限,人類專家在 MMAU 上的準確率為 82.23%。這是一個很難的評測集,目前 MMAU 官網(wǎng)榜單上表現(xiàn)最好的模型是來自 OpenAI 的 GPT-4o,準確率為 57.3%。緊隨其后的是來自 Google DeepMind 的 Gemini 2.0 Flash,準確率為 55.6%。

圖1:MMAU 任務(wù)示例 圖片來自 MMAU 論文

來自阿里的 Qwen2-Audio-7B 模型在此評測集上的準確率為 49.2%。由于它的開源特性,我們嘗試使用一個較小的數(shù)據(jù)集,清華大學發(fā)布的 AVQA 數(shù)據(jù)集(https://mn.cs.tsinghua.edu.cn/avqa/),對此模型做微調(diào)。AVQA 數(shù)據(jù)集僅包含 3.8 萬條訓練樣本,通過全量有監(jiān)督微調(diào)(SFT),模型在 MMAU 上的準確率提升到了 51.8%。這并不是一個特別顯著的提升。

DeepSeek-R1 的發(fā)布為我們在該項任務(wù)上的研究帶來了啟發(fā)。DeepSeek-R1 的 Group Relative Policy Optimization (GRPO) 方法,讓模型僅通過"試錯-獎勵"機制就能使自主進化,涌現(xiàn)出類似人類的反思、多步驗證等推理能力。在同一時間,卡內(nèi)基梅隆大學發(fā)布的論文預(yù)印本 “All Roads Lead to Likelihood: The Value of Reinforcement Learning in Fine-Tuning (https://arxiv.org/abs/2503.01067) ”,通過精巧的實驗得出了一個有趣的論斷:當任務(wù)存在明顯的生成-驗證差距(Generation-Verification Gap),即任務(wù)生成結(jié)果的難度遠大于驗證結(jié)果正確性的難度時,強化學習比起有監(jiān)督微調(diào)具有獨特優(yōu)勢,而 AQA 任務(wù)恰好是完美的生成-驗證差距顯著的任務(wù)。

打個比方來說,離線微調(diào)方法,如 SFT,有點像背題庫,你只能根據(jù)已有的題目和答案訓練,但遇到新題可能不會做;而強化學習方法,如 GRPO,像老師在要求你多想幾個答案,然后老師告訴你哪一個答案好,讓你主動思考,激發(fā)出自身的能力,而不是被“填鴨式”教學。當然,如果訓練量足夠,比如有學生愿意花很多年的時間來死記硬背題庫,也許最終也能達到不錯的效果,但效率太低,浪費太多時間。而主動思考,更容易快速地達到舉一反三的效果。強化學習的實時反饋可能會幫助模型更快鎖定高質(zhì)量答案的分布區(qū)域,而離線方法需要遍歷整個可能性空間,效率要低得多。

基于上述洞察,我們嘗試將 DeepSeek-R1 的 GRPO 算法遷移到 Qwen2-Audio-7B 模型上。令人驚喜的是,在僅使用 AVQA 的 3.8 萬條訓練樣本的情況下,強化學習微調(diào)后的模型在 MMAU 評測集上實現(xiàn)了 64.5% 的準確率,這一成績比目前榜單上第一名的商業(yè)閉源模型 GPT-4o 有近10個百分點的優(yōu)勢。

有趣的是,當我們在訓練中強制要求模型輸出 <thinking></thinking> 推理過程時,準確率反而下降至 61.1%。這說明顯式的思維鏈結(jié)果輸出可能并不利于模型的訓練。

我們的實驗揭示了幾個和傳統(tǒng)認知不同的結(jié)論:

1.關(guān)于微調(diào)方法:強化學習在 3.8 萬條數(shù)據(jù)集上的表現(xiàn)顯著超過監(jiān)督學習在 57 萬條數(shù)據(jù)集上的結(jié)果

2.關(guān)于參數(shù)規(guī)模:相比千億級模型,7B 參數(shù)的模型通過強化學習也可展現(xiàn)強推理能力

3.關(guān)于隱式推理:顯式思維鏈輸出反而成為性能瓶頸

盡管當前準確率已突破 64%,但距離人類專家 82% 的水平仍有差距。在我們當前的實驗中,強化學習策略還是比較粗糙,訓練過程對思維鏈的引導并不充分,我們會在后續(xù)做進一步探索。

此次實驗驗證了強化學習在音頻理解和推斷領(lǐng)域的獨特價值,也為后續(xù)研究打開了一扇新的大門。當機器不僅能"聽見"聲音,還能"聽懂"聲音背后的因果邏輯時,真正的智能聽覺時代將會來臨。

免責聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請自行核實相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2025-03-17
強化學習展現(xiàn)“反直覺”優(yōu)勢——小米大模型團隊登頂音頻理解和推斷 MMAU 榜單
強化學習展現(xiàn)“反直覺”優(yōu)勢——小米大模型團隊登頂音頻理解和推斷MMAU榜單

長按掃碼 閱讀全文