大模型,在內(nèi)卷中尋找出口

2024年,大模型進(jìn)展不斷。從年初的Sora到最新的o3,更新更好的模型不斷被推出,“內(nèi)卷”到底有沒有發(fā)生?

我們要先確定“內(nèi)卷”的定義,指某一類產(chǎn)業(yè)模式,發(fā)展到一種確定形式后,陷入“高水平均衡陷阱”,出現(xiàn)“沒有發(fā)展的增長”,這種局面一直無法被打破,那就會走向停滯和危機(jī)。

而這一年,大模型的scaling law法則越來越受到挑戰(zhàn),訓(xùn)練模型的算力集群已經(jīng)從萬卡發(fā)展到十萬卡,擴(kuò)大了十倍,而模型的智商并沒有以這個倍率提高。應(yīng)用端也沒有出現(xiàn)killer app(殺手級應(yīng)用),模型廠商開始了流血換量的價格戰(zhàn)……這些特征與“內(nèi)卷”的定義是契合的。

那么接下來的問題就是,內(nèi)卷化讓大模型陷入危機(jī)了嗎?以及脫離內(nèi)卷的出口,究竟在哪里?

在內(nèi)卷化周期中,一個產(chǎn)業(yè)是很難保持活力和創(chuàng)新動力的。大模型內(nèi)卷化的加劇,也讓行業(yè)進(jìn)入調(diào)整期。

首先可以感受到的,就是公眾和投資者的失望。2023年,人們都用“AI一天,人間一年”來形容AI的發(fā)展,美股 “七姐妹”(蘋果、微軟、谷歌母公司alphabet、亞馬遜、英偉達(dá)、特斯拉、Meta)更是在這一股熱潮下屢創(chuàng)新高。而近來我們明顯看到,這股熱情已經(jīng)回落。

OpenAI的股東、接入模型API的服務(wù)商企業(yè),都公開抱怨過,AI能力沒有太大進(jìn)展了。剛剛結(jié)束的為期12天的OpenAI 發(fā)布會,也大多是對已有模型、產(chǎn)品或技術(shù)路線的增強(qiáng),符合預(yù)期,但缺乏亮點(diǎn),無法為AGI提供強(qiáng)支撐。OpenAI前首席科學(xué)家Ilya在NeurIPS 2024大會上提出“預(yù)訓(xùn)練將會終結(jié)(Pre-training as we know it will end)”,更是給大眾澆了一瓢涼水。

來自產(chǎn)學(xué)各界的質(zhì)疑態(tài)度是一個比較危險的信號,因?yàn)闅v史上的AI寒冬都源于信心缺失和投資退潮。

另一個危機(jī)信號,是產(chǎn)品同質(zhì)化競爭和淘汰賽加劇。

基礎(chǔ)模型的競賽,也在2024變得格外激烈,一是模型數(shù)量過密,且性能表現(xiàn)逐漸趨同,尤其是開源模型與閉源模型的差距在快速縮小,進(jìn)入同質(zhì)化競爭。

二是同一廠商的模型家族,也在加速淘汰,比如GPT-3.5-Turbo就退役了,由GPT-4o mini取代,國內(nèi)模廠的模型也基本如此,用戶都愿意用加量不加價、物美價更廉的新模型,舊模型沒人愿意用了。GPT-4o Mini發(fā)布后,API 的使用量翻了一番。

激烈的同質(zhì)化競爭,讓模廠不敢減少訓(xùn)練新模型的投入,又為了應(yīng)對價格戰(zhàn)而不得不下調(diào)token價格,結(jié)果就是經(jīng)濟(jì)負(fù)擔(dān)越來越重??梢哉f,目前大模型無論是外部的宏觀形勢,還是企業(yè)的微觀經(jīng)營狀態(tài),都沒有2023年那么積極了。

模型層面,底層技術(shù)路線、數(shù)據(jù)瓶頸等無法在短期內(nèi)得到有效突破,那么從商業(yè)層面尋找出路,就成為必然。

2024年,我們能看到大模型內(nèi)卷,給商業(yè)模式帶來的諸多挑戰(zhàn)。

一是云+API模式,流血降價、以價換量并不是最優(yōu)解。

API調(diào)用量付費(fèi),是大模型的主要變現(xiàn)模式之一,通過token降價來贏得更多大模型業(yè)務(wù)上云,獲得長期收益,是云廠商價格戰(zhàn)的基本邏輯。但目前來看,以價換量似乎并不奏效。

究其原因,是因?yàn)锽端客戶更關(guān)注模廠的長期性、模型質(zhì)量,質(zhì)在價先,可靠優(yōu)先。所以,我們看到,一部分以價換量成功的云廠商,本身就具有比較強(qiáng)的模型能力,比如文心一言兩款主力模型免費(fèi)之后,百度智能云的日調(diào)用量一個月翻了十倍。基于豆包大模型家族的火山云,token調(diào)用量也大幅上升,甚至有客戶的tokens調(diào)用量增長了5000倍。這說明新用戶會傾向于頭部模型,而老用戶要么不考慮替換現(xiàn)有模型,要么會把雞蛋放在多個頭部廠商的籃子里,趁降價接入更多模型,最終留下性價比高的。而不打價格戰(zhàn)的云廠商,比如華為云將盤古大模型作為“尖刀產(chǎn)品”,也在B端市場取得了不錯的成績,與行業(yè)伙伴協(xié)同打造的煤炭大模型、醫(yī)藥大模型及數(shù)智化解決方案,今年在垂直領(lǐng)域的多個企業(yè)內(nèi)被復(fù)用。很多行業(yè)用戶考慮華為云,就有企業(yè)抗風(fēng)險能力強(qiáng),能在基礎(chǔ)模型堅(jiān)持投入,業(yè)務(wù)穩(wěn)健運(yùn)營的預(yù)期考量。

上述企業(yè)說明,云+API模式成功的根本,是“質(zhì)在價先”。

二是訂閱制,由于大模型內(nèi)卷化,導(dǎo)致用戶粘性低、忠誠度不高,會員市場呈現(xiàn)出極高的分散性。

因?yàn)榇竽P偷母聯(lián)Q代非???,一方面新模型在質(zhì)量和性價比上往往更好,“等等黨”更愿意觀望;另外很多舊模型會不再更新或退役,這就讓會員更不愿意跟平臺長期綁定。這就導(dǎo)致模廠為了不斷吸引新用戶,拉新營銷活動難以停止,獲客成本居高不下,而且影響用戶體驗(yàn),需要高頻彈窗廣告,打擾用戶,開發(fā)出多個會員等級和收費(fèi)權(quán)益套餐,增加了用戶的決策疲勞。而好不容易拉來的新客戶,往往使用一段時間之后就轉(zhuǎn)向免費(fèi)版本,或者更新更便宜的友商產(chǎn)品,長期續(xù)費(fèi)率不高。

可以看到,大模型的內(nèi)卷化,導(dǎo)致大多數(shù)模廠難以說服客戶和開發(fā)者,與其建立長期信賴關(guān)系。這就給后續(xù)的商業(yè)變現(xiàn)與價值挖掘,造成了極大挑戰(zhàn)。

告別內(nèi)卷,就要向外尋找出路。數(shù)量多、同質(zhì)化的大模型,形成了一個密度很高的堰塞湖。那么逃離內(nèi)卷,就必須疏浚河道,緩解擁塞。所以,2025,將是大模型商業(yè)基礎(chǔ)設(shè)施日趨完善的一年,通過更全面的“水利設(shè)施”,讓大模型應(yīng)用者和開發(fā)者們能夠更方便地取用。

如何判斷一個大模型是否“外向”?有以下幾個衡量標(biāo)準(zhǔn):

一是模型的開放度或者說兼容性。

如前所說,內(nèi)卷化周期中,用戶并不愿意將雞蛋放在一個籃子里,或者跟某一個模廠進(jìn)行長期綁定,這就需要模型具備很強(qiáng)的開放度和兼容性。比如騰訊混元大模型的免費(fèi)資源包,同時支持hunyuan-pro、hunyuan-standard、hunyuan-turbo等多個模型共享,支撐第三方平臺、ISV服務(wù)商為客戶提供多種模型的靈活選擇與切換、模型競技場等,來滿足最終客戶對多元多模的需求。

二是更細(xì)致地開發(fā)工具。

將大模型技術(shù)轉(zhuǎn)化為生產(chǎn)力,還需要加工工具、工作流等更細(xì)致的支持,比如此次OpenAI就為Sora打造了Remix、Blend和Loop三個專業(yè)工具,來支撐更好的視頻生成,為此支付每月200美元的Pro用戶也不少。國內(nèi),我們實(shí)測過的,字節(jié)跳動的扣子開發(fā)平臺、百度文心智能體開發(fā)平臺等的開發(fā)工具也已經(jīng)很容易上手了。

三是大模型應(yīng)用從開發(fā)到商業(yè)化的“端到端”支持。

2024年并沒有出現(xiàn)國民級的第三方AI應(yīng)用。一方面是模型能力本身還需要提升,一些AI智能體平臺充斥著大量低水平、易復(fù)制的個人智能體,對話體驗(yàn)、理解能力、多模態(tài)任務(wù)等的效果一般,沒有太大商業(yè)價值;另一方面,是很多開發(fā)者不知道AI應(yīng)用如何商業(yè)化,所以還沒有投入太大精力去開發(fā)市場缺乏的產(chǎn)品,滿足尚未解決的需求,這就需要平臺加大對開發(fā)者的商業(yè)資源扶持。

歸根結(jié)底,技術(shù)天花板短期內(nèi)難以突破,大模型市場飽和與同質(zhì)化競爭的局面就不會宣布解決。大模型要取得商業(yè)成功,前提是用戶和開發(fā)者的業(yè)務(wù)能否成功,這是為什么完善的商業(yè)基礎(chǔ)設(shè)施必不可少。

逃離內(nèi)卷的堰塞湖,所有模廠2025年都必須回答的問題是:如果大模型是水和電,那么用戶和開發(fā)者擰開開關(guān),究竟能得到什么?

免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點(diǎn),與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請自行核實(shí)相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2024-12-24
大模型,在內(nèi)卷中尋找出口
大模型,在內(nèi)卷中尋找出口

長按掃碼 閱讀全文