2月27日消息,大模型開源的風(fēng)吹到了視頻生成大模型。阿里云日前放出重磅消息:萬相,開源!
阿里云視頻生成大模型萬相2.1(Wan)正式開源,此次開源采用Apache2.0協(xié)議,14B和1.3B兩個參數(shù)規(guī)格的全部推理代碼和權(quán)重全部開源,同時支持文生視頻和圖生視頻任務(wù),全球開發(fā)者可在Github、HuggingFace、魔搭社區(qū)下載體驗(yàn)。
從2023年開始,阿里云就堅定大模型開源路線,其千問(Qwen)衍生模型數(shù)量已超過10萬個。隨著萬相的開源,阿里云實(shí)現(xiàn)了全模態(tài)、全尺寸的開源。
四個開源模型
此次開源共有四個模型,文生和圖生各兩個,兩個參數(shù)版本。兩個文生視頻模型分別是1.3B和14B兩個規(guī)格;兩個圖生視頻模型都是14B,分辨率一個480P一個720P。
14B版本萬相模型:在指令遵循、復(fù)雜運(yùn)動生成、物理建模、文字視頻生成等方面表現(xiàn)突出,在權(quán)威評測集Vbench中,萬相2.1以總分86.22%大幅超越Sora、Luma、Pika等國內(nèi)外模型,穩(wěn)居榜首位置。
1.3B版本萬相模型:不僅超過了更大尺寸的開源模型,甚至還和一些閉源的模型結(jié)果接近,同時能在消費(fèi)級顯卡運(yùn)行,僅需8.2GB顯存就可以生成480P視頻,適用于二次模型開發(fā)和學(xué)術(shù)研究。
有用戶表示,1.3B的萬象模型在RTX4090上跑一條5秒鐘的480P視頻的時間大概只要4分鐘。
阿里云特別強(qiáng)調(diào),萬相2.1(Wan)大模型是首個具備支持中文文字生成能力,且同時支持中英文文字特效生成的視頻生成模型。
實(shí)驗(yàn)結(jié)果顯示,在運(yùn)動質(zhì)量、視覺質(zhì)量、風(fēng)格和多目標(biāo)等 14 個主要維度和 26 個子維度測試中,萬相表現(xiàn)出色,并且斬獲 5 項(xiàng)第一。尤其在復(fù)雜運(yùn)動和物理規(guī)律遵循上的表現(xiàn)上大幅提升,萬相能穩(wěn)定呈現(xiàn)人物的旋轉(zhuǎn)、跳躍等高難度動作,并逼真模擬物體碰撞、反彈和切割等真實(shí)物理效果。
良好表現(xiàn)的背后,是基于主流的DiT和線性噪聲軌跡Flow Matching范式,萬相大模型通過一系列技術(shù)創(chuàng)新實(shí)現(xiàn)了生成能力的重大進(jìn)步。包括自研高效的因果3D VAE、可擴(kuò)展的預(yù)訓(xùn)練策略、大規(guī)模數(shù)據(jù)鏈路構(gòu)建以及自動化評估指標(biāo),這些創(chuàng)新共同提升了模型的最終性能表現(xiàn)。
阿里展示了諸多萬相大模型生成的視頻,大家看看效果:
開源地址:
Github: https://github.com/Wan-Video
HuggingFace:https://huggingface.co/Wan-AI
魔搭社區(qū):https://modelscope.cn/organization/Wan-AI
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )