“降價的基本邏輯是,我們有信心用技術手段降低成本,市場也需要更低價的大模型?!?/p>
5月15日,字節(jié)跳動豆包大模型在火山引擎原動力大會上正式發(fā)布。火山引擎總裁譚待在接受媒體采訪時,談到了大模型的定價策略。
豆包大模型的超低價格引發(fā)行業(yè)震動。據(jù)悉,豆包主力模型的推理輸入價格只有0.0008元/千Tokens,比行業(yè)便宜99.3%。對此,譚待坦言,“降價是用技術優(yōu)化成本來實現(xiàn)的。如果只是補貼,用虧損換收入是不可持續(xù)的,火山引擎不會走這條路?!?/p>
據(jù)介紹,大模型推理成本的優(yōu)化,技術上有很多手段。首先是模型本身,模型結構、訓練方法都可以持續(xù)改進,包括業(yè)界很關注的MoE(混合專家模型),就是優(yōu)化推理成本很好的解決方案。
其次是工程上的優(yōu)化。大模型的調用量越大,優(yōu)化推理成本的空間也越大。以前的模型都是單機推理,大模型用的是分布式推理。所以如果能把各種各樣的底層算力用得更好,推理成本就會大大降低。
譚待進一步解釋說,豆包大模型平均每天處理1200億Tokens文本、生成3000萬張圖片,這里有不同的負載,可以把不同任務混合在一起,互相錯峰,通過智能調度把它們的利用率都跑得很高,就能極大地提升資源利用率,實現(xiàn)整體成本的優(yōu)化。
另外以字節(jié)內部業(yè)務為例,飛書的主要流量高峰在工作時間,抖音在下班后休閑時間的流量更高,這些不同業(yè)務的大模型推理,也能根據(jù)業(yè)務特點錯峰使用,就可以降低成本。
對于“大模型開始價格戰(zhàn)”的說法,譚待認為,大模型市場仍在發(fā)展初期,遠遠沒到激烈競爭的階段?!俺靥劣卸啻?,魚就有多大,現(xiàn)在整個池塘還在培養(yǎng)的過程。”
“一個人現(xiàn)在創(chuàng)業(yè),如果要花1萬塊錢調用大模型,可能會覺得有點貴。我們把價格降到1%都不到,100塊錢就能用起來,他的想法也就更容易嘗試。”譚待表示,企業(yè)的AI轉型充滿不確定性,試錯成本要盡量低,才能更快更多地實現(xiàn)大模型的應用落地,從而讓整個行業(yè)受益。
- 蜜度索驥:以跨模態(tài)檢索技術助力“企宣”向上生長
- 《全職高手》登陸上海北外灘 成二次元愛好者熱門打卡地
- 新勢力2025年將迎決戰(zhàn)?銷量翻番才能活下去?
- 馬蜂窩大數(shù)據(jù):“元旦一日游”熱度上漲166%,不少人選擇“請四休九”
- 亞馬遜云科技陳曉建:2025年很多客戶將從生成式AI原型驗證轉為生產(chǎn)應用
- 林肯中國回應“并入福特中國”傳聞:簡化財務體系 各項業(yè)務保持不變
- 要做中國的OpenAI?字節(jié)跳動2024年研發(fā)開支接近BAT之和
- 螞蟻旗下跨境匯款平臺為開發(fā)者提供收款服務 每日限額10萬美元
- 要買車還能再等等!2025年新能源車,這些關鍵技術將有重大升級
- AAAA,三七互娛發(fā)起的游心公益基金會社會組織評估等級再提升
- 網(wǎng)易云音樂2024年度聽歌報告刷屏 你最喜歡的歌手是誰?
免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。