LLM很難變成AGI?科學(xué)家:創(chuàng)造AGI理論上可行

極客網(wǎng)·極客觀察12月10日 今年9月份OpenAI對外宣稱,AI能力達(dá)到新等級,相比之前的LLM,新AI更接近人類的思考能力。OpenAI的斷言引起爭論:到底還要等多久機(jī)器才能具備人類大腦一樣的認(rèn)知能力?

大家爭論的智能就是所謂的AGI,它可以幫助人類解決復(fù)雜問題,比如氣候變化、大流行、癌癥治療等等。AGI充滿不確定,它也會給人類帶來風(fēng)險。

加拿大蒙特利爾大學(xué)深度學(xué)習(xí)研究人員Yoshua Bengio說:“AI可能會被誤用,人類可能失去對AI的控制,這些都會導(dǎo)致惡意事件發(fā)生。”

過去幾年LLM飛速進(jìn)化,一些人相信AGI已經(jīng)很接近了,但Yoshua Bengio認(rèn)為,考慮到LLM的構(gòu)建和訓(xùn)練方式,LLM單靠自己不能達(dá)到AGI,因為缺少一些關(guān)鍵要素。

亞利桑那州立大學(xué)計算機(jī)科學(xué)家Subbarao Kambhampati說:“在我人生的大部分時間里,我覺得談?wù)揂GI的人是瘋子。現(xiàn)在呢?幾乎每個人都在談?wù)?,你不能說他們都是瘋子?!?/p>

有關(guān)AGI的爭論,為什么變了?

2007年AGI開始流行起來,它的定義并不精準(zhǔn),大意是說AI系統(tǒng)具備人一樣的推理、泛化能力?;乜碅I歷史,沒有一個AI能達(dá)到AGI水準(zhǔn),即使是稱霸圍棋界的AlphaGo,它的“超能力”也只是局限于狹窄領(lǐng)域。

現(xiàn)在呢?LLM已經(jīng)改變了行業(yè)。由于LLM具備多種多樣的能力,研究人員認(rèn)為某種形式的AGI可能很快會出現(xiàn),甚至已經(jīng)出現(xiàn)。

LLM就是神經(jīng)網(wǎng)絡(luò),它相當(dāng)于受到大腦啟發(fā)的機(jī)器學(xué)習(xí)模型。網(wǎng)絡(luò)由人工神經(jīng)元組成(或者叫計算單元),它們排列成層,有著可調(diào)節(jié)的參數(shù)(代表神經(jīng)元的連接強(qiáng)度)。

在訓(xùn)練時,研究人員用到一種名叫NTP(Next Token Prediction) 的方法,模型被反復(fù)輸入文本,文本被分成很多小塊,這些小塊叫token。在一個序列中,最后一個token被隱藏或者掩蓋,讓模型預(yù)測它是什么。模型會將預(yù)測結(jié)果與原數(shù)據(jù)對比,然后調(diào)整模型參數(shù),讓它具備更好的預(yù)測能力。

后來又出現(xiàn)了Transformer模型,它更進(jìn)一步。Transformer可以讓模型知道有一些token會對其它token造成更大影響,如此一來,LLM可以像人一樣解析語言。

到了這一步,LLM可以生成計算機(jī)程序,讓程序去解決自然語言中描述的問題,它可以匯總學(xué)術(shù)論文,可以回答數(shù)學(xué)問題。

有人認(rèn)為,只要LLM變得足夠大,就會孕育出AGI。CoT(chain-of-thought)提示就是一個例證,它說明LLM可以將一個問題分成更小的步驟,方便解決,也可以讓LLM分步解決問題,可惜的是CoT在小模型中表現(xiàn)不太好。

LLM模型的局限性,與大腦的“世界模型”

OpenAI開發(fā)的o1模型用到了CoT,能解決更復(fù)雜的問題,但它并不是AGI。實驗證明,讓o1處理規(guī)劃達(dá)到16步的任務(wù)時,o1表現(xiàn)不錯,但是如果步數(shù)達(dá)到20-40步,o1的表現(xiàn)會越來越差。

研究人員經(jīng)常會用抽象推理和泛化來測試AGI能力,比如讓AI處理視覺拼圖問題。在測試時,AI需要觀看實例,總結(jié)出抽象規(guī)則,然后用規(guī)則來解決新的謎題。

不論LLM是大還是小,在測試中表現(xiàn)都不太好,因為它們需要組合學(xué)到的知識,用來解決新問題。

那么LLM有可能進(jìn)化出AGI嗎?研究人員認(rèn)為,雖然現(xiàn)在我們離AGI還很遙遠(yuǎn),但是使用Transformer架構(gòu)的LLM和AI系統(tǒng)已經(jīng)具備一些AGI的關(guān)鍵特征。

Transformer LLM當(dāng)然也有一些問題,比如訓(xùn)練模型的數(shù)據(jù)快耗盡了。當(dāng)我們訓(xùn)練Transformer LLM時讓它預(yù)測下一個token,這樣做可能太過片面,無法進(jìn)化出AGI,構(gòu)建能生成解決方案的模型可能會讓我們離AGI更近一些。

神經(jīng)科學(xué)家為AI行業(yè)帶來自己的看法,他們認(rèn)為,大腦可以構(gòu)建“世界模型”,所以才有了智力。所謂“世界模型”就是指周邊環(huán)境。大腦可以想象不同的行動方案并預(yù)測結(jié)果,可以規(guī)劃、推理,人腦還可以模擬不同的場景,將自己在某個領(lǐng)域?qū)W到的技能應(yīng)用于其它新任務(wù)。要讓AI變成AGI,它需要具備構(gòu)建“世界模型”的能力。

有些研究者認(rèn)為,已經(jīng)有證據(jù)顯示在LLM出現(xiàn)了基本世界模型。另一些研究則說,AI系統(tǒng)構(gòu)建的世界模型并不可靠。

當(dāng)今LLM的大缺點,缺少內(nèi)部反饋

谷歌DeepMind AGI研發(fā)團(tuán)隊成員Dileep George認(rèn)為,缺少內(nèi)部反饋是當(dāng)今LLM的一大缺點。人類大腦有很多的反饋連接,信息可以在神經(jīng)元層之間快速流動,由于信息可以從感覺系統(tǒng)向大腦更高層流動,所以我們可以創(chuàng)建出映射環(huán)境的世界模型。不只如此,信息還會向下流動,引導(dǎo)人進(jìn)一步獲得更深刻的感官信息。

在OpenAI o1模型中,內(nèi)部CoT提示看起來有效,屬于反饋連接,但它無法保證模型可以進(jìn)行抽象推理。

研究人員為LLM添加外部模型,這種模塊叫“verifier”(驗證器)。驗證器會檢查LLM 在特定環(huán)境中生成的答案,比如制定可行的旅行計劃,比如搜索結(jié)果讓人不滿意,它會重新查詢。事實證明,搭配驗證器的LLM制定旅行計劃時比普通LLM好很多,但問題在于,研究人員必須為每一個任務(wù)設(shè)計定制驗證器,沒有通用驗證器。

為了適應(yīng)新情況,AGI需要構(gòu)建相應(yīng)驗證器,人類不一樣,我們可以利用抽象規(guī)則確保推理正確,即使處理新任務(wù)也可以從容應(yīng)對,現(xiàn)在的LLM還做不到。

數(shù)據(jù)問題也是阻止LLM進(jìn)化的一大障礙。倫敦大學(xué)學(xué)院理論神經(jīng)科學(xué)家Karl Friston認(rèn)為,未來的系統(tǒng)也許可以高效確定自己到底需要多少數(shù)據(jù)才能構(gòu)建世界模型并正確推理預(yù)測,這樣就沒有必要向模型投喂所有數(shù)據(jù)。聽起來很像是代理、自主體。Karl Friston說:“在LLM或者生成式AI中你看不到類似的代理,如果能開發(fā)出一種智能,它能在某種程度上進(jìn)行選擇,那就意味著朝AGI前進(jìn)了一大步?!?/p>

AI系統(tǒng)應(yīng)該有能力構(gòu)建高效世界模型,集成反饋循環(huán),盡力降低對外部數(shù)據(jù)的依賴,通過內(nèi)部模擬、假定反設(shè)事實、推理、規(guī)劃來生成數(shù)據(jù)。

用這種方法能否創(chuàng)造出AGI?計算機(jī)專家認(rèn)為在理論上是可能的,沒有障礙。新墨西哥州圣達(dá)菲研究所計算機(jī)科學(xué)家Melanie Mitchell說:“人和其它動物達(dá)到智能基本上是一個道理,我并不認(rèn)為生物系統(tǒng)和其它材料構(gòu)建的系統(tǒng)有什么本質(zhì)區(qū)別,非生物系統(tǒng)達(dá)成智能沒有什么障礙?!?/p>

即使真的有可能創(chuàng)造出AGI,何時達(dá)成目標(biāo)大家也沒有定論,有人認(rèn)為只要幾年,有人覺得十年之內(nèi)不太可能。當(dāng)AGI出現(xiàn)時可能不會那么明顯,AGI會慢慢展示自己的潛能,它會被人類發(fā)明出來,然后擴(kuò)大規(guī)模并應(yīng)用,然后才能真正開始改變世界。(小刀)

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2024-12-10
LLM很難變成AGI?科學(xué)家:創(chuàng)造AGI理論上可行
有關(guān)AGI的爭論為什么變了?

長按掃碼 閱讀全文