LLM很難變成AGI?科學家:創(chuàng)造AGI理論上可行

極客網·極客觀察12月10日 今年9月份OpenAI對外宣稱,AI能力達到新等級,相比之前的LLM,新AI更接近人類的思考能力。OpenAI的斷言引起爭論:到底還要等多久機器才能具備人類大腦一樣的認知能力?

大家爭論的智能就是所謂的AGI,它可以幫助人類解決復雜問題,比如氣候變化、大流行、癌癥治療等等。AGI充滿不確定,它也會給人類帶來風險。

加拿大蒙特利爾大學深度學習研究人員Yoshua Bengio說:“AI可能會被誤用,人類可能失去對AI的控制,這些都會導致惡意事件發(fā)生?!?br/>

過去幾年LLM飛速進化,一些人相信AGI已經很接近了,但Yoshua Bengio認為,考慮到LLM的構建和訓練方式,LLM單靠自己不能達到AGI,因為缺少一些關鍵要素。

亞利桑那州立大學計算機科學家Subbarao Kambhampati說:“在我人生的大部分時間里,我覺得談論AGI的人是瘋子?,F在呢?幾乎每個人都在談論,你不能說他們都是瘋子。”

有關AGI的爭論,為什么變了?

2007年AGI開始流行起來,它的定義并不精準,大意是說AI系統具備人一樣的推理、泛化能力。回看AI歷史,沒有一個AI能達到AGI水準,即使是稱霸圍棋界的AlphaGo,它的“超能力”也只是局限于狹窄領域。

現在呢?LLM已經改變了行業(yè)。由于LLM具備多種多樣的能力,研究人員認為某種形式的AGI可能很快會出現,甚至已經出現。

LLM就是神經網絡,它相當于受到大腦啟發(fā)的機器學習模型。網絡由人工神經元組成(或者叫計算單元),它們排列成層,有著可調節(jié)的參數(代表神經元的連接強度)。

在訓練時,研究人員用到一種名叫NTP(Next Token Prediction) 的方法,模型被反復輸入文本,文本被分成很多小塊,這些小塊叫token。在一個序列中,最后一個token被隱藏或者掩蓋,讓模型預測它是什么。模型會將預測結果與原數據對比,然后調整模型參數,讓它具備更好的預測能力。

后來又出現了Transformer模型,它更進一步。Transformer可以讓模型知道有一些token會對其它token造成更大影響,如此一來,LLM可以像人一樣解析語言。

到了這一步,LLM可以生成計算機程序,讓程序去解決自然語言中描述的問題,它可以匯總學術論文,可以回答數學問題。

有人認為,只要LLM變得足夠大,就會孕育出AGI。CoT(chain-of-thought)提示就是一個例證,它說明LLM可以將一個問題分成更小的步驟,方便解決,也可以讓LLM分步解決問題,可惜的是CoT在小模型中表現不太好。

LLM模型的局限性,與大腦的“世界模型”

OpenAI開發(fā)的o1模型用到了CoT,能解決更復雜的問題,但它并不是AGI。實驗證明,讓o1處理規(guī)劃達到16步的任務時,o1表現不錯,但是如果步數達到20-40步,o1的表現會越來越差。

研究人員經常會用抽象推理和泛化來測試AGI能力,比如讓AI處理視覺拼圖問題。在測試時,AI需要觀看實例,總結出抽象規(guī)則,然后用規(guī)則來解決新的謎題。

不論LLM是大還是小,在測試中表現都不太好,因為它們需要組合學到的知識,用來解決新問題。

那么LLM有可能進化出AGI嗎?研究人員認為,雖然現在我們離AGI還很遙遠,但是使用Transformer架構的LLM和AI系統已經具備一些AGI的關鍵特征。

Transformer LLM當然也有一些問題,比如訓練模型的數據快耗盡了。當我們訓練Transformer LLM時讓它預測下一個token,這樣做可能太過片面,無法進化出AGI,構建能生成解決方案的模型可能會讓我們離AGI更近一些。

神經科學家為AI行業(yè)帶來自己的看法,他們認為,大腦可以構建“世界模型”,所以才有了智力。所謂“世界模型”就是指周邊環(huán)境。大腦可以想象不同的行動方案并預測結果,可以規(guī)劃、推理,人腦還可以模擬不同的場景,將自己在某個領域學到的技能應用于其它新任務。要讓AI變成AGI,它需要具備構建“世界模型”的能力。

有些研究者認為,已經有證據顯示在LLM出現了基本世界模型。另一些研究則說,AI系統構建的世界模型并不可靠。

當今LLM的大缺點,缺少內部反饋

谷歌DeepMind AGI研發(fā)團隊成員Dileep George認為,缺少內部反饋是當今LLM的一大缺點。人類大腦有很多的反饋連接,信息可以在神經元層之間快速流動,由于信息可以從感覺系統向大腦更高層流動,所以我們可以創(chuàng)建出映射環(huán)境的世界模型。不只如此,信息還會向下流動,引導人進一步獲得更深刻的感官信息。

在OpenAI o1模型中,內部CoT提示看起來有效,屬于反饋連接,但它無法保證模型可以進行抽象推理。

研究人員為LLM添加外部模型,這種模塊叫“verifier”(驗證器)。驗證器會檢查LLM 在特定環(huán)境中生成的答案,比如制定可行的旅行計劃,比如搜索結果讓人不滿意,它會重新查詢。事實證明,搭配驗證器的LLM制定旅行計劃時比普通LLM好很多,但問題在于,研究人員必須為每一個任務設計定制驗證器,沒有通用驗證器。

為了適應新情況,AGI需要構建相應驗證器,人類不一樣,我們可以利用抽象規(guī)則確保推理正確,即使處理新任務也可以從容應對,現在的LLM還做不到。

數據問題也是阻止LLM進化的一大障礙。倫敦大學學院理論神經科學家Karl Friston認為,未來的系統也許可以高效確定自己到底需要多少數據才能構建世界模型并正確推理預測,這樣就沒有必要向模型投喂所有數據。聽起來很像是代理、自主體。Karl Friston說:“在LLM或者生成式AI中你看不到類似的代理,如果能開發(fā)出一種智能,它能在某種程度上進行選擇,那就意味著朝AGI前進了一大步?!?/p>

AI系統應該有能力構建高效世界模型,集成反饋循環(huán),盡力降低對外部數據的依賴,通過內部模擬、假定反設事實、推理、規(guī)劃來生成數據。

用這種方法能否創(chuàng)造出AGI?計算機專家認為在理論上是可能的,沒有障礙。新墨西哥州圣達菲研究所計算機科學家Melanie Mitchell說:“人和其它動物達到智能基本上是一個道理,我并不認為生物系統和其它材料構建的系統有什么本質區(qū)別,非生物系統達成智能沒有什么障礙?!?/p>

即使真的有可能創(chuàng)造出AGI,何時達成目標大家也沒有定論,有人認為只要幾年,有人覺得十年之內不太可能。當AGI出現時可能不會那么明顯,AGI會慢慢展示自己的潛能,它會被人類發(fā)明出來,然后擴大規(guī)模并應用,然后才能真正開始改變世界。(小刀)

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2025-01-07
LLM很難變成AGI?科學家:創(chuàng)造AGI理論上可行
有關AGI的爭論為什么變了?

長按掃碼 閱讀全文