據(jù)報道,阿里(BABA.US)生成基座模型萬相2.1(Wan)宣布開源,在評測集中,超越Sora、Luma等模型,位列榜首。
開源最強(qiáng)視頻大模型亮相
獲悉,萬相2.1共有兩個參數(shù)規(guī)模,140億參數(shù)模型適用于對生成效果要求更高的專業(yè)人士,13億參數(shù)模型生成速度較快且能兼容所有消費級GPU,兩個模型的全部推理代碼和權(quán)重已全部開源。
在視頻生成方面,萬相2.1通過自研的高效VAE和DiT架構(gòu)增強(qiáng)了時空上下文建模能力,支持無限長1080P視頻的高效編解碼,首次實現(xiàn)了中文文字視頻生成功能,同時支持文生視頻、圖生視頻、視頻編輯、文生圖和視頻生音頻等多項任務(wù)。
據(jù)此前介紹,萬相2.1支持中英文視頻,可以一鍵生成藝術(shù)字,還提供多種視頻特效選項,以增強(qiáng)視覺表現(xiàn)力,例如過渡、粒子效果、模擬等。
分析人士稱,隨著萬相2.1模型開源,標(biāo)志著阿里云實現(xiàn)了全模態(tài)、全尺寸的開源。這意味著更多的開發(fā)者,將能夠低成本獲取并使用該模型底層代碼,進(jìn)而用以開展與自身業(yè)務(wù)相關(guān)的各類視頻生成應(yīng)用。
開啟全模態(tài)開源新時代
自2025年以來,開源趨勢逐漸成為全球大模型領(lǐng)域的標(biāo)配。國內(nèi)方面,進(jìn)入2月,多家企業(yè)紛紛推出了各自的開源模型,包括字節(jié)跳動的豆包以及百度的文心一言等,共同掀起了新一輪的開源熱潮。
國際方面,隨著萬相2.1完全開源,OpenAI、谷歌等競品也將直面商業(yè)化的挑戰(zhàn):更好的模型已經(jīng)開源了,AI生成視頻的定價也將面臨挑戰(zhàn)。谷歌Veo 2模型近期披露定價,每生成1秒視頻需要付費0.5美元,相當(dāng)于生成一個小時的視頻需要花費1800美元。
微美全息開源多模態(tài)應(yīng)用場景拓展
公開資料顯示,微美全息(WIMI.US)在AI視頻生成領(lǐng)域有顯著布局,涵蓋大語言、多模態(tài)等領(lǐng)域,面對開源視頻生成大模型賽道,從大語言模型到視覺生成模型,從基礎(chǔ)模型到多樣化的衍生模型,實現(xiàn)了全模態(tài)、全尺寸的開源,微美全息AI開源生態(tài)的發(fā)展正不斷被注入強(qiáng)大的動力。
事實上,近些年來,微美全息專注于多模態(tài)AIGC(生成式AI)研發(fā),技術(shù)核心在于結(jié)合大規(guī)模預(yù)訓(xùn)練與多模態(tài)算法優(yōu)化,提升生成內(nèi)容的連貫性和物理合理性。同時在行業(yè)生態(tài)上,微美全息已逐步實現(xiàn)文本生成視頻、圖像生成視頻等能力,支持劇情創(chuàng)作、短視頻生成等場景,未來可能通過API或行業(yè)解決方案,加速AI快速生成視頻能力技術(shù)迭代。
結(jié)語
未來,AI模型將進(jìn)入一個分水嶺,機(jī)構(gòu)普遍認(rèn)為,阿里此舉將加速AI視頻技術(shù)商業(yè)化落地,并推動算力、云計算、內(nèi)容創(chuàng)作等全產(chǎn)業(yè)鏈升級。所以說,AI下半場,不是簡單的技術(shù)競賽,而是一場關(guān)于資源、效率和成本的綜合博弈,這一新的革命正在加速中。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )