“火山引擎自己是不做大模型的,我們首先服務好國內做大模型的廠商,等他們把大模型做好之后,我們再一起合作開展對外的服務?!被鹕揭婵偛米T待向TechWeb等表示。
隨著ChatGPT的爆火,國內人工智能領域也風起云涌,互聯(lián)網科技公司紛紛開啟大模型軍備競賽。百度、阿里、360等大廠,以及MiniMax、智譜AI等創(chuàng)業(yè)公司,都已相繼推出自己的大模型產品,與此同時云市場也在加速變革。
作為字節(jié)跳動旗下云服務平臺,火山引擎明確不會做大模型,但發(fā)布了大模型訓練云平臺。譚待表示,AI大模型有巨大潛力和創(chuàng)新空間,火山引擎會服務客戶做好大模型,共同推動各行業(yè)的智能化升級。
值得一提的是,在集團層面,字節(jié)跳動并未放棄自己做大模型。字節(jié)跳動副總裁楊震原在采訪中透露,“公司在做一些學習和研究,現(xiàn)在還沒有什么結果,未來這方面有了進展再同步?!?/p>
火山引擎明確不做大模型
火山引擎是字節(jié)跳動于2021年6月推出的云服務業(yè)務板塊,被外界稱為“字節(jié)云”,它和協(xié)同辦公平臺飛書共同構成字節(jié)跳動對外的To B服務體系。在百度、阿里等大廠相繼推出大模型產品之后,有業(yè)內人士猜測,火山引擎可能也會推出自己的大模型產品。不過,這一消息被火山引擎方面明確否認。
4月18日,火山引擎原動力大會舉辦。在會后的采訪中,火山引擎總裁譚待明確表示,“火山引擎自己是不做大模型的?!被鹕揭鎸⒔尤攵嗉掖竽P蜕疃群献?,為大模型廠商提供服務。
這個思路與亞馬遜類似。日前,亞馬遜AWS宣布推出生成式 AI(AIGC)工具“全家桶”,包括用于生成文本、分類、開放式問答和信息提取等任務的生成式大語言模型以及文本嵌入大語言模型等,AWS瞄準的也是企業(yè)客戶。
譚待表示,國內很多科技公司投入到大模型建設中,他們有優(yōu)秀的技術團隊,也有豐富的行業(yè)知識和創(chuàng)新想法,但往往缺乏經過大規(guī)模場景實踐的系統(tǒng)工程能力?;鹕揭嬉龅木褪菫榇竽P涂蛻籼峁└叻€(wěn)定性和高性價比的AI基礎設施。
值得一提的是,雖然火山引擎不做大模型,但在集團層面,字節(jié)跳動并未放棄自己做大模型。
今年2月,據(jù)36氪報道,字節(jié)跳動已經從語言和圖像兩種模態(tài)上布局大模型。其中,語言大模型團隊在今年組建,由字節(jié)搜索部門牽頭,探索方向主要為與搜索、廣告等下游業(yè)務的結合;圖像大模型團隊則由產品研發(fā)與工程架構部下屬的智能創(chuàng)作團隊牽頭。
3月底,有消息稱,阿里M6大模型的前帶頭人楊紅霞已加入字節(jié)跳動AI Lab(人工智能實驗室),參與語言生成大模型的研發(fā),并在語言生成大模型團隊中處于領導地位,直接向字節(jié)跳動副總裁楊震原匯報。
對于上述市場消息,字節(jié)跳動方面當時均未予以回應。
在火山引擎原動力大會的采訪中,楊震原透露,“大模型方面,其實公司也在做一些學習和研究,現(xiàn)在還沒有什么結果,等未來這方面有了進展再同步?!?/p>
如何滿足大模型廠商需求?
大模型需要大算力才能做出來,此外還需要很好的工程能力,去解決千卡甚至萬卡并行的訓練,去解決好網絡問題,以及包括在訓練過程中怎樣使人可以更早地干預、觀測等。
“對火山引擎來說,一方面是算力的供給,另一方面是云原生機器學習平臺,以幫助企業(yè)應用好算力,進一步提升效率,把大模型訓練的又快又穩(wěn)定?!弊T待如此說到。
據(jù)介紹,火山引擎機器學習平臺經過抖音等海量用戶業(yè)務長期打磨,支持單任務萬卡級別的超大規(guī)模分布式并行訓練場景。GPU彈性計算實例可靈活調度資源,隨用隨取,最高可以為客戶節(jié)省70%的算力成本。
MiniMax是目前國內少數(shù)已經推出自研大模型產品的AI技術公司,擁有文本、視覺、聲音三種通用大模型引擎能力。據(jù)MiniMax聯(lián)合創(chuàng)始人楊斌介紹,MiniMax與火山引擎合作建立了超大規(guī)模實驗平臺,實現(xiàn)千卡級常態(tài)化訓練;超大規(guī)模推理平臺有萬卡級算力池,支撐單日過億次調用。
據(jù)譚待透露,國內大模型領域,七成以上已是火山引擎客戶,包括智譜AI、昆侖萬維等。
會上,火山引擎還宣布與字節(jié)跳動國內業(yè)務并池?;趦韧饨y(tǒng)一的云原生基礎架構,抖音等業(yè)務的空閑計算資源可極速調度給火山引擎客戶使用,離線業(yè)務資源分鐘級調度10萬核CPU,在線業(yè)務資源也可潮汐復用。
只是,字節(jié)跳動的國內業(yè)務本身,用戶數(shù)據(jù)已經很多,雖然有空閑的計算資源,字節(jié)本身也在做大模型的嘗試,有多少算力能分到外部?對此,楊震原表示,“并池”實際上是一個技術問題,并不是資源問題。云計算本來就有很多客戶,可以去調度一些資源,去錯峰互用,把運力提上去。
“比如抖音,其實也有波峰和波谷,晚上或深夜用的人少,這種資源就很適合科學計算的能力,因為這個是批量的,并不需要非常實時的來做這個事情。這個例子也說明了為什么通過資源的混部能夠更好降低云計算的成本?!睏钫鹪M一步解釋說。
大模型不會一家獨大
有評論稱,大模型將成為云廠商彎道超車的機會。譚待對此表示,大模型還在發(fā)展初期,面臨數(shù)據(jù)安全、內容安全、隱私保護、版權保護等許多問題需要努力解決。但可以預見,大模型將帶動云上AI算力急劇增長,AI算力的工作負載與通用算力的差距會越來越小,這會為各家云廠商帶來新的機會,同時也會對數(shù)據(jù)中心、軟硬件棧、PaaS平臺帶來新的挑戰(zhàn)。
以數(shù)據(jù)中心的算力結構為例,譚待表示:“大模型需要大算力,虛擬化會帶來資源損耗,規(guī)模越大就損耗越多。未來3年內,大規(guī)模的算力中心,都將形成’CPU+GPU+DPU’的混合算力結構,CPU負責通用計算,GPU負責AI計算,DPU負責資源卸載、加速和隔離,提升資源效率”。
此次原動力大會上,火山引擎發(fā)布了新一代自研DPU,實現(xiàn)計算、存儲、網絡的全組件卸載,釋放更多資源給業(yè)務負載。現(xiàn)場數(shù)據(jù)顯示,火山引擎自研DPU的網絡性能高達5000萬pps轉發(fā)能力、延遲低至20us。
譚待認為,在大模型及下游應用發(fā)展推動下,無論傳統(tǒng)企業(yè)還是初創(chuàng)企業(yè),對AI算力都有迫切需求,企業(yè)使用多家云服務將成為常態(tài)。同時,各行業(yè)有自己高質量的私有語料,大模型不會一家獨大,而是會在千行百業(yè)生長,形成多模型共生甚至協(xié)作的生態(tài)。
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。