深度思考:現(xiàn)在的AI模型真的在進(jìn)行推理嗎?

極客網(wǎng)·極客觀察2月27日 最近,OpenAI、DeepSeek、谷歌、Anthropic都推出新模型,它們都宣稱模型已經(jīng)具備真正的推理能力,也就是人類解決問題時運(yùn)用的思維方式,但問題在于:AI大模型所說的推理真的和人一樣嗎? 

現(xiàn)在的模型可以將復(fù)雜問題分解成小問題,然后逐步解決小問題再給出回應(yīng),業(yè)界將這個過程稱為“思維鏈推理”。這些模型有時表現(xiàn)讓人驚嘆,可以解決邏輯謎題和數(shù)學(xué)難題,能夠快速寫出完美代碼,但有時面對極為簡單的問題卻顯得蠢笨。 

于是乎,反對者認(rèn)為所謂的“思維鏈推理”根本不算推理,而支持者卻認(rèn)為是推理,雖然不如人類靈活,但它正在朝著真正的推理前進(jìn)。 

反對者:只是用啟發(fā)式原則猜測答案 

科學(xué)家一直在研究人腦是如何運(yùn)行的,目前大家一致認(rèn)為大腦存在多種不同的推理類型。 

推理有演繹推理,即從一個一般性的陳述出發(fā),得出一個具體的結(jié)論。還有歸納推理,利用具體的觀察結(jié)果來做出更廣泛的概括。除此還有類比推理、因果推理、常識推理。 

與人腦推理相比,目前的AI推理還很狹隘。 

圣塔菲研究所(SFI,Santa Fe Institute,SFI)教授梅蘭妮·米切爾(Melanie Mitchell)曾在一篇論文中寫道:“從有限的數(shù)學(xué)和經(jīng)驗中找到一條規(guī)則或者一套模型,將它應(yīng)用于新的未曾見過的情境中,在現(xiàn)實世界,我們非常看重這樣的推理。即使是非常小的孩子,也能從幾個例子中學(xué)習(xí)并發(fā)現(xiàn)抽象規(guī)則?!?nbsp;

孩子能做到,現(xiàn)在的AI能嗎?許多人持懷疑態(tài)度。 

愛丁堡大學(xué)技術(shù)哲學(xué)家肖恩·瓦洛爾(Shannon Vallor)在談到OpenAI o1時表示:“AI所做的只是一種元擬態(tài)行為(meta-mimicry)?!?nbsp;

什么意思?就是說以前的ChatGPT舊模型會模仿其訓(xùn)練數(shù)據(jù)中人類所寫的陳述內(nèi)容,新的o1可以模仿人類得出陳述內(nèi)容的過程,雖然o1輸出的結(jié)果會讓人覺得它在推理,但這不是真正意義上的推理。

舉個例子,問ChatGPT一個問題:“1個人帶1匹狼、1只羊、1捆草過河。如果人在場,狼不敢吃羊、羊不敢吃草,可是小河邊的船每次只能讓人帶一種東西過河。那么,如何用最少的渡河次數(shù)把所有東西都帶到河對岸呢?” 

雖然o1相比舊版有所改進(jìn),但架構(gòu)并未有太大變動,它在回答問題時出現(xiàn)失誤。瓦洛爾認(rèn)為:“在回答問題失敗時,我們會看到一個事實,即模型并沒有進(jìn)行真正的推理。” 

隨后推出的o3讓米切爾感到驚訝,但她更讓他吃驚的是o3在解決問題時消耗的算力如此巨大。由于OpenAI內(nèi)部運(yùn)作并不透明,人們無從知曉大模型用這些算力做了什么。如果OpenAI不能做到公開透明,便無法確定模型真的將大問題分解成若干步驟,然后給出一個更完美的整體答案。 

去年紐約大學(xué)在一篇名為《Let’s Think Dot by Dot》的論文中質(zhì)疑過AI推理,研究人員發(fā)現(xiàn),把思維鏈(Chain-of-Thought,CoT)推理中的具體步驟,替換成毫無意義的“...”(點(diǎn)號),產(chǎn)生的推理結(jié)果也大差不差。 

米切爾認(rèn)為:“AI更像是一個啟發(fā)式原則構(gòu)成的集合,不是推理模型?!眴l(fā)式原則能幫你猜出問題的正確答案,但它并非真正通過思考獲得答案。 

又例如,研究人員曾開發(fā)一個視覺模型,用來分析皮膚癌。初看時,模型似乎能判斷皮膚上的斑點(diǎn)是否為惡性病變,但事實證明,在訓(xùn)練數(shù)據(jù)中惡性斑點(diǎn)照片旁邊往往有了標(biāo)尺信息,模型只是因為標(biāo)尺信息的存在將斑點(diǎn)判定為惡性病變,這是一種啟發(fā)式思考。 

由此可以懷疑,看起來AI似乎在用“推理”解決問題,但實際上只是在利用“記憶信息”進(jìn)行啟發(fā)式探索。 

支持者:不是純粹推理但也不是背誦  

Redwood Research致力于降低人工智能風(fēng)險,該公司首席科學(xué)家瑞安·格林布拉特(Ryan Greenblatt)認(rèn)為,當(dāng)前的AI明顯是在進(jìn)行某種形式的推理。 

格林布拉特說:“機(jī)器的處理方式不像人類那樣具有普遍性,它們更多依賴記憶和知識,而非人類那樣依靠推理和判斷,但機(jī)器仍在進(jìn)行處理。” 

既然AI模型可以解答超出樣本范圍的難題,而且表現(xiàn)出色,就可以說它們是在進(jìn)行某種推理。 

“過河問題”是一個很經(jīng)典的問題,在訓(xùn)練數(shù)據(jù)中,AI應(yīng)該已經(jīng)學(xué)習(xí)過很多次。但當(dāng)用戶提出問題時,AI并沒有給出正確答案,它可能知道答案,只是進(jìn)行了復(fù)雜的不必要的“思考”,人有時也會犯這種錯誤。

格林布拉特舉例說,如果你花一個月時間學(xué)習(xí)色彩理論,從互補(bǔ)色到不同色調(diào)的心理影響,再到文藝復(fù)興時期某些顏料的歷史意義。學(xué)完之后參加測試,試題問:“這幅風(fēng)景畫中為什么要把天空畫成藍(lán)色?”你可能會被誤導(dǎo),寫出極為復(fù)雜但沒有必要的答案,比如你可能會說藍(lán)色代表神圣的天空,說畫是清晨完成的,象征著新生……實際上答案很簡單:因為天空就是藍(lán)色的。

Open Philanthropy分析師阿杰亞·科特拉(Ajeya Cotra)認(rèn)為,有些活動被人類稱為推理,在這一范疇內(nèi),AI將會表現(xiàn)得越來越好。人類說AI只是在進(jìn)行“元擬態(tài)”活動,重點(diǎn)不在于“元擬態(tài)”,而在于“只是”。人類的意思可能是它不會對世界產(chǎn)生重大影響,我們離超級人工智能還有很遠(yuǎn),這種斷定值得懷疑。 

再比如,在一堂大學(xué)物理課上,面對問題時學(xué)生的表現(xiàn)參差不齊。有人作弊,直接給出答案。有人是天才,無需思考公式的內(nèi)容,憑借深刻的理解與直覺給出答案。大多學(xué)生憑借記憶記住公式,努力思考用哪個公式解答問題。 

科特拉認(rèn)為,現(xiàn)在的AI和大多學(xué)生一樣,它會將記憶內(nèi)容與一些推理內(nèi)容結(jié)合起來。AI可能不太聰明,但它很勤奮,能記住無數(shù)方程式。它將強(qiáng)大的記憶與少量理解結(jié)合,找出針對某個問題的方程式組合,然后給出答案。 

乍一看,AI和天才學(xué)生一樣極為聰明,但細(xì)細(xì)分析就會發(fā)現(xiàn)答案中的漏洞,盡管如此,并不意味著AI沒有推理。

換句話說,這些模型既不是純粹地進(jìn)行推理,也不是純粹地進(jìn)行背誦。 

科特拉說:“我認(rèn)為這是處于兩者之間的一種狀態(tài)。人們對此感到困惑,因為他們想要將其歸入某一類別,要么說是單純的記憶,要么說是真正意義上的深入推理。但實際上,推理的深度是有一定范圍的?!?/p>

結(jié)語:鋸齒狀智能 

研究人員用“鋸齒狀智能”這一術(shù)語能描述今天的AI,就是說它既能出色解決一些數(shù)學(xué)問題,碰到簡單問題時又會變得愚蠢。 

人類總是喜歡將AI的智能與人類智能類比,或者我們應(yīng)該換個角度看待,將人工智能視為“與眾不同”的智能,不要糾結(jié)于“比人類更聰明”或者“比人類更愚笨”。 

人工智能正在進(jìn)化,某一天也許變得無比強(qiáng)大,能夠囊括人類所有的智能,甚至還有余力,這種變革值得期待。(小刀)

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2025-02-27
深度思考:現(xiàn)在的AI模型真的在進(jìn)行推理嗎?
AI大模型所說的推理真的和人一樣嗎?

長按掃碼 閱讀全文