突破認(rèn)知,昇騰 NPU引領(lǐng)新潮流:中科大與華為發(fā)布生成式推薦大模型
隨著信息爆炸時(shí)代的來臨,推薦系統(tǒng)已成為我們生活中不可或缺的一部分。近期,中科大與華為合作開發(fā)的推薦大模型部署方案取得了顯著成果,引發(fā)了業(yè)界的廣泛關(guān)注。本文將圍繞這一重大突破,從技術(shù)報(bào)告出發(fā),深入探討生成式推薦大模型的發(fā)展趨勢(shì)、擴(kuò)展定律在生成式推薦中的應(yīng)用、模型的可擴(kuò)展性來源以及其在復(fù)雜場景和排序任務(wù)中的表現(xiàn),并展望未來的研究方向。
首先,我們回顧推薦范式的發(fā)展歷程。在深度學(xué)習(xí)興起之前,推薦系統(tǒng)主要依賴手工設(shè)計(jì)特征和簡單模型。隨著深度學(xué)習(xí)的普及,研究者開始專注于復(fù)雜模型的設(shè)計(jì),以更好地?cái)M合用戶偏好并提升對(duì)GPU并行計(jì)算的利用率。然而,隨著深度學(xué)習(xí)能力的瓶頸,特征工程再次受到關(guān)注。在這個(gè)背景下,具備擴(kuò)展定律的生成式推薦范式正在成為未來趨勢(shì)。
為了評(píng)估生成式推薦大模型在不同架構(gòu)下的擴(kuò)展性,我們對(duì)比了HSTU、Llama、GPT和SASRec四種基于Transformer的架構(gòu)。實(shí)驗(yàn)結(jié)果顯示,隨著參數(shù)擴(kuò)展,HSTU和Llama的性能顯著提升,而GPT和SASRec的擴(kuò)展性不足。這表明,生成式推薦大模型在解決冷啟動(dòng)問題上具有巨大潛力。
為了探究HSTU等生成式推薦模型的可擴(kuò)展性來源,我們進(jìn)行了消融實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,RAB(相對(duì)注意力偏移)的關(guān)鍵作用不可忽視。此外,我們還發(fā)現(xiàn),推薦大模型在性能上不僅受垂直擴(kuò)展(注意力模塊數(shù)量)影響,也受水平規(guī)模(embedding維度)影響。調(diào)整殘差連接方式并與RAB結(jié)合,為傳統(tǒng)推薦模型賦予了擴(kuò)展性。
在復(fù)雜場景和排序任務(wù)中,生成式推薦大模型表現(xiàn)出色。HSTU在多域、多行為和輔助信息等復(fù)雜場景中表現(xiàn)出色,尤其在規(guī)模較小的場景如Digital Music和Video Games上表現(xiàn)卓越。此外,在排序任務(wù)中,生成式推薦大模型在性能上顯著優(yōu)于傳統(tǒng)推薦模型。
未來研究方向包括數(shù)據(jù)工程、Tokenizer、訓(xùn)練推理效率等方面。這些改進(jìn)將有助于解決當(dāng)前的挑戰(zhàn)并拓寬應(yīng)用場景。
總的來說,中科大與華為發(fā)布的生成式推薦大模型是一個(gè)重大突破,它將引領(lǐng)推薦系統(tǒng)領(lǐng)域進(jìn)入一個(gè)全新的階段。這個(gè)模型的成功部署,離不開昇騰NPU的強(qiáng)大算力支持。昇騰NPU引領(lǐng)了新潮流,打破了傳統(tǒng)的認(rèn)知邊界,為人工智能領(lǐng)域注入了新的活力。我們期待這一成果能在未來的實(shí)踐中得到廣泛應(yīng)用,為人們的生活帶來更多便利。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )