11月11日消息,盡管使用聊天機(jī)器人ChatGPT等人工智能產(chǎn)品的人數(shù)在激增,但支撐這些技術(shù)的底層模塊的改進(jìn)速度似乎正在放緩。為此,ChatGPT的開發(fā)者OpenAI正在開發(fā)新技術(shù),以增強(qiáng)大語言模型等核心模塊,從而應(yīng)對(duì)這一挑戰(zhàn)。
OpenAI即將推出的旗艦?zāi)P汀矮C戶座”(Orion)所面臨的挑戰(zhàn)突顯了公司當(dāng)前遇到的難題。今年5月,OpenAI首席執(zhí)行官薩姆·奧特曼(Sam Altman)在內(nèi)部透露,他預(yù)計(jì)正在訓(xùn)練中的獵戶座將顯著優(yōu)于一年前發(fā)布的上一代旗艦?zāi)P?。?jù)知情人士稱,盡管獵戶座的訓(xùn)練進(jìn)度僅完成20%,但其智能和任務(wù)完成能力已與GPT-4不相上下。
不過,一些使用或測(cè)試過獵戶座的OpenAI員工表示,盡管其性能確實(shí)超越了前代模型,但提升幅度遠(yuǎn)不及從GPT-3到GPT-4的躍升。一些研究人員指出,獵戶座在處理特定任務(wù)時(shí)未必穩(wěn)定優(yōu)于前代模型。一位員工表示,獵戶座在語言任務(wù)上表現(xiàn)出色,但在編碼等任務(wù)中可能不如之前的模型。這種情況可能會(huì)帶來問題,因?yàn)榕cOpenAI近期發(fā)布的其他模型相比,獵戶座在數(shù)據(jù)中心的運(yùn)行成本更高。
獵戶座的表現(xiàn)正在考驗(yàn)人工智能領(lǐng)域的核心假設(shè)——縮放定律,即只要數(shù)據(jù)量和計(jì)算能力持續(xù)增加,大語言模型就能不斷改進(jìn)。面對(duì)GPT改進(jìn)速度放緩帶來的挑戰(zhàn),業(yè)界似乎正將重點(diǎn)轉(zhuǎn)向初始訓(xùn)練后的模型優(yōu)化,這可能會(huì)產(chǎn)生一種新的縮放定律。
Facebook母公司Meta首席執(zhí)行官馬克·扎克伯格(Mark Zuckerberg)在內(nèi)的一些科技領(lǐng)袖認(rèn)為,即使在技術(shù)未能進(jìn)一步突破的最壞情況下,基于當(dāng)前技術(shù)仍然有很大的開發(fā)空間來創(chuàng)建面向消費(fèi)者和企業(yè)的產(chǎn)品。
OpenAI正在應(yīng)對(duì)競(jìng)爭(zhēng)對(duì)手Anthropic的威脅,將更多的代碼編寫功能嵌入其模型中,并開發(fā)能夠模擬人類操作計(jì)算機(jī)的軟件,以完成涉及瀏覽器和應(yīng)用程序操作的白領(lǐng)任務(wù),如點(diǎn)擊、光標(biāo)移動(dòng)和文本輸入等。
這些產(chǎn)品屬于能夠執(zhí)行多步驟任務(wù)的AI代理范疇,其革命性可能與ChatGPT的首次發(fā)布相當(dāng)。
扎克伯格、奧特曼及其他人工智能開發(fā)者的高管表示,他們尚未觸及傳統(tǒng)縮放定律的極限。也因此,包括OpenAI在內(nèi)的公司依舊投資數(shù)十億美元建設(shè)數(shù)據(jù)中心,以盡可能提高預(yù)訓(xùn)練模型的性能。
然而,OpenAI研究員諾姆·布朗(Noam Brown)在上月的TEDAI大會(huì)上提出警告,認(rèn)為開發(fā)更先進(jìn)的模型可能在經(jīng)濟(jì)上變得不可持續(xù)。他表示:“我們真的會(huì)投入數(shù)千億甚至萬億美元來訓(xùn)練模型嗎?縮放模式在某個(gè)時(shí)刻會(huì)失效?!?/p>
在公開發(fā)布獵戶座之前,OpenAI仍需完成復(fù)雜的安全測(cè)試。據(jù)員工透露,獵戶座可能會(huì)在明年初發(fā)布,并可能放棄傳統(tǒng)的“GPT”命名方式,以突顯大語言模型改進(jìn)的新特性。對(duì)此,OpenAI發(fā)言人未予置評(píng)。
數(shù)據(jù)匱乏成為模型訓(xùn)練的瓶頸
OpenAI的員工和研究人員指出,GPT進(jìn)步放緩的原因之一在于高質(zhì)量文本和其他數(shù)據(jù)的供應(yīng)日益減少。大語言模型在預(yù)訓(xùn)練階段需要這些數(shù)據(jù)來理解世界和不同概念之間的關(guān)系,以解決如撰寫博文或修復(fù)編碼錯(cuò)誤等問題。
近年來,大語言模型主要依賴于網(wǎng)站、書籍等來源的公開文本數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,但開發(fā)者已幾乎耗盡了這類數(shù)據(jù)的潛力。為此,OpenAI組建了由曾負(fù)責(zé)預(yù)訓(xùn)練的尼克·賴德(Nick Ryder)領(lǐng)導(dǎo)的基礎(chǔ)團(tuán)隊(duì),致力于研究如何應(yīng)對(duì)數(shù)據(jù)短缺問題,并探索縮放定律的持續(xù)適用性。
據(jù)OpenAI員工透露,獵戶座部分使用了由其他OpenAI模型(如GPT-4和最近發(fā)布的推理模型)生成的AI數(shù)據(jù)進(jìn)行訓(xùn)練。然而,這種合成數(shù)據(jù)也帶來了新問題,可能導(dǎo)致獵戶座在某些方面與前代模型過于相似。
OpenAI的研究人員正在利用其他工具,通過改進(jìn)特定任務(wù)的處理方式來優(yōu)化模型后期的表現(xiàn)。他們采用一種稱為強(qiáng)化學(xué)習(xí)的方法,讓模型從大量已正確解決的問題中學(xué)習(xí),如數(shù)學(xué)和編碼問題。
此外,研究人員還邀請(qǐng)人類評(píng)估員在編碼或問題解決任務(wù)上測(cè)試預(yù)訓(xùn)練模型,并對(duì)其答案進(jìn)行評(píng)分,這有助于研究人員調(diào)整模型,使其在寫作和編碼等請(qǐng)求上的表現(xiàn)更佳。這一過程稱為帶有人類反饋的強(qiáng)化學(xué)習(xí),也曾幫助過早期的AI模型改進(jìn)。
OpenAI及其他AI開發(fā)商通常依賴初創(chuàng)公司,如Scale AI和Turing,來管理成千上萬名承包商,以處理這些評(píng)估工作。
OpenAI還開發(fā)了一種名為o1的推理模型,該模型在回答前會(huì)花費(fèi)更多時(shí)間“思考”訓(xùn)練數(shù)據(jù),這一過程稱為測(cè)試時(shí)間計(jì)算。這意味著,即使不改變底層模型,給o1分配更多計(jì)算資源,也可以持續(xù)提高其響應(yīng)質(zhì)量。據(jù)知情人士透露,即使底層模型改進(jìn)速度較慢,若OpenAI能保持持續(xù)改進(jìn),仍然可以實(shí)現(xiàn)更好的推理效果。
“這為模型擴(kuò)展開辟了新維度,”布朗在TED大會(huì)上說。他補(bǔ)充道,研究人員可以通過“每次查詢成本從1美分提高到10美分”來提升模型響應(yīng)質(zhì)量。
奧特曼也強(qiáng)調(diào)了推理模型的重要性,認(rèn)為它可與大語言模型結(jié)合使用。“我希望推理能力能夠解鎖我們多年未能實(shí)現(xiàn)的突破,比如讓模型在科學(xué)研究和復(fù)雜代碼編寫中做出貢獻(xiàn),”奧特曼在一場(chǎng)應(yīng)用開發(fā)者活動(dòng)中表示。
在最近接受Y Combinator首席執(zhí)行官陳嘉興(Garry Tan)采訪時(shí),奧特曼透露:“我們基本上知道如何實(shí)現(xiàn)通用人工智能——一種能達(dá)到人類能力的技術(shù),其中一部分是創(chuàng)造性地運(yùn)用現(xiàn)有模型?!?/p>
數(shù)學(xué)家和科學(xué)家們表示,o1對(duì)他們的研究工作有幫助,能作為合作伙伴提供反饋和啟發(fā)。然而,據(jù)兩位知情員工透露,由于o1的價(jià)格是非推理模型的六倍,因此其客戶基礎(chǔ)尚未普及。
突破瓶頸,提升推理能力
一些對(duì)AI開發(fā)商投資數(shù)千萬美元的投資者疑慮大語言模型的改進(jìn)速度是否開始趨于平穩(wěn)。
風(fēng)險(xiǎn)投資家本·霍洛維茨(Ben Horowitz)在YouTube一段視頻中表示:“我們正以相同的速度增加訓(xùn)練AI的圖形處理單元,但在智能提升方面未見顯著改善?!被袈寰S茨的風(fēng)投公司不僅是OpenAI的股東,還投資了Mistral和Safe Superintelligence等競(jìng)爭(zhēng)對(duì)手。
霍洛維茨的同事馬克·安德森(Marc Andreessen)在同一視頻中指出:“許多聰明人在致力于突破瓶頸,探索如何提升推理能力?!?/p>
企業(yè)軟件公司Databricks聯(lián)合創(chuàng)始人兼主席伊翁·斯托伊卡(Ion Stoica)表示,大語言模型在某些方面可能已趨于穩(wěn)定,但在其他領(lǐng)域仍有改進(jìn)空間。他還開發(fā)了一個(gè)網(wǎng)站,供應(yīng)用開發(fā)者評(píng)估不同的大語言模型。
斯托伊卡稱,盡管AI在編碼和解決復(fù)雜問題上不斷進(jìn)步,但在執(zhí)行通用任務(wù)(如分析文本情感或描述醫(yī)療癥狀)時(shí),進(jìn)展似乎放緩。
“在常識(shí)性問題上,我們似乎看到大語言模型的表現(xiàn)趨于平穩(wěn)。為實(shí)現(xiàn)進(jìn)一步突破,我們需要更多的事實(shí)性數(shù)據(jù),而合成數(shù)據(jù)幫助有限。”(小?。?/p>
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )