極客網·極客觀察2月27日 最近,OpenAI、DeepSeek、谷歌、Anthropic都推出新模型,它們都宣稱模型已經具備真正的推理能力,也就是人類解決問題時運用的思維方式,但問題在于:AI大模型所說的推理真的和人一樣嗎?
現在的模型可以將復雜問題分解成小問題,然后逐步解決小問題再給出回應,業(yè)界將這個過程稱為“思維鏈推理”。這些模型有時表現讓人驚嘆,可以解決邏輯謎題和數學難題,能夠快速寫出完美代碼,但有時面對極為簡單的問題卻顯得蠢笨。
于是乎,反對者認為所謂的“思維鏈推理”根本不算推理,而支持者卻認為是推理,雖然不如人類靈活,但它正在朝著真正的推理前進。
反對者:只是用啟發(fā)式原則猜測答案
科學家一直在研究人腦是如何運行的,目前大家一致認為大腦存在多種不同的推理類型。
推理有演繹推理,即從一個一般性的陳述出發(fā),得出一個具體的結論。還有歸納推理,利用具體的觀察結果來做出更廣泛的概括。除此還有類比推理、因果推理、常識推理。
與人腦推理相比,目前的AI推理還很狹隘。
圣塔菲研究所(SFI,Santa Fe Institute,SFI)教授梅蘭妮·米切爾(Melanie Mitchell)曾在一篇論文中寫道:“從有限的數學和經驗中找到一條規(guī)則或者一套模型,將它應用于新的未曾見過的情境中,在現實世界,我們非??粗剡@樣的推理。即使是非常小的孩子,也能從幾個例子中學習并發(fā)現抽象規(guī)則。”
孩子能做到,現在的AI能嗎?許多人持懷疑態(tài)度。
愛丁堡大學技術哲學家肖恩·瓦洛爾(Shannon Vallor)在談到OpenAI o1時表示:“AI所做的只是一種元擬態(tài)行為(meta-mimicry)?!?nbsp;
什么意思?就是說以前的ChatGPT舊模型會模仿其訓練數據中人類所寫的陳述內容,新的o1可以模仿人類得出陳述內容的過程,雖然o1輸出的結果會讓人覺得它在推理,但這不是真正意義上的推理。
舉個例子,問ChatGPT一個問題:“1個人帶1匹狼、1只羊、1捆草過河。如果人在場,狼不敢吃羊、羊不敢吃草,可是小河邊的船每次只能讓人帶一種東西過河。那么,如何用最少的渡河次數把所有東西都帶到河對岸呢?”
雖然o1相比舊版有所改進,但架構并未有太大變動,它在回答問題時出現失誤。瓦洛爾認為:“在回答問題失敗時,我們會看到一個事實,即模型并沒有進行真正的推理?!?nbsp;
隨后推出的o3讓米切爾感到驚訝,但她更讓他吃驚的是o3在解決問題時消耗的算力如此巨大。由于OpenAI內部運作并不透明,人們無從知曉大模型用這些算力做了什么。如果OpenAI不能做到公開透明,便無法確定模型真的將大問題分解成若干步驟,然后給出一個更完美的整體答案。
去年紐約大學在一篇名為《Let’s Think Dot by Dot》的論文中質疑過AI推理,研究人員發(fā)現,把思維鏈(Chain-of-Thought,CoT)推理中的具體步驟,替換成毫無意義的“...”(點號),產生的推理結果也大差不差。
米切爾認為:“AI更像是一個啟發(fā)式原則構成的集合,不是推理模型?!眴l(fā)式原則能幫你猜出問題的正確答案,但它并非真正通過思考獲得答案。
又例如,研究人員曾開發(fā)一個視覺模型,用來分析皮膚癌。初看時,模型似乎能判斷皮膚上的斑點是否為惡性病變,但事實證明,在訓練數據中惡性斑點照片旁邊往往有了標尺信息,模型只是因為標尺信息的存在將斑點判定為惡性病變,這是一種啟發(fā)式思考。
由此可以懷疑,看起來AI似乎在用“推理”解決問題,但實際上只是在利用“記憶信息”進行啟發(fā)式探索。
支持者:不是純粹推理但也不是背誦
Redwood Research致力于降低人工智能風險,該公司首席科學家瑞安·格林布拉特(Ryan Greenblatt)認為,當前的AI明顯是在進行某種形式的推理。
格林布拉特說:“機器的處理方式不像人類那樣具有普遍性,它們更多依賴記憶和知識,而非人類那樣依靠推理和判斷,但機器仍在進行處理?!?nbsp;
既然AI模型可以解答超出樣本范圍的難題,而且表現出色,就可以說它們是在進行某種推理。
“過河問題”是一個很經典的問題,在訓練數據中,AI應該已經學習過很多次。但當用戶提出問題時,AI并沒有給出正確答案,它可能知道答案,只是進行了復雜的不必要的“思考”,人有時也會犯這種錯誤。
格林布拉特舉例說,如果你花一個月時間學習色彩理論,從互補色到不同色調的心理影響,再到文藝復興時期某些顏料的歷史意義。學完之后參加測試,試題問:“這幅風景畫中為什么要把天空畫成藍色?”你可能會被誤導,寫出極為復雜但沒有必要的答案,比如你可能會說藍色代表神圣的天空,說畫是清晨完成的,象征著新生……實際上答案很簡單:因為天空就是藍色的。
Open Philanthropy分析師阿杰亞·科特拉(Ajeya Cotra)認為,有些活動被人類稱為推理,在這一范疇內,AI將會表現得越來越好。人類說AI只是在進行“元擬態(tài)”活動,重點不在于“元擬態(tài)”,而在于“只是”。人類的意思可能是它不會對世界產生重大影響,我們離超級人工智能還有很遠,這種斷定值得懷疑。
再比如,在一堂大學物理課上,面對問題時學生的表現參差不齊。有人作弊,直接給出答案。有人是天才,無需思考公式的內容,憑借深刻的理解與直覺給出答案。大多學生憑借記憶記住公式,努力思考用哪個公式解答問題。
科特拉認為,現在的AI和大多學生一樣,它會將記憶內容與一些推理內容結合起來。AI可能不太聰明,但它很勤奮,能記住無數方程式。它將強大的記憶與少量理解結合,找出針對某個問題的方程式組合,然后給出答案。
乍一看,AI和天才學生一樣極為聰明,但細細分析就會發(fā)現答案中的漏洞,盡管如此,并不意味著AI沒有推理。
換句話說,這些模型既不是純粹地進行推理,也不是純粹地進行背誦。
科特拉說:“我認為這是處于兩者之間的一種狀態(tài)。人們對此感到困惑,因為他們想要將其歸入某一類別,要么說是單純的記憶,要么說是真正意義上的深入推理。但實際上,推理的深度是有一定范圍的?!?/p>
結語:鋸齒狀智能
研究人員用“鋸齒狀智能”這一術語能描述今天的AI,就是說它既能出色解決一些數學問題,碰到簡單問題時又會變得愚蠢。
人類總是喜歡將AI的智能與人類智能類比,或者我們應該換個角度看待,將人工智能視為“與眾不同”的智能,不要糾結于“比人類更聰明”或者“比人類更愚笨”。
人工智能正在進化,某一天也許變得無比強大,能夠囊括人類所有的智能,甚至還有余力,這種變革值得期待。(小刀)
- 從VTuber到Faceless頻道,AI虛擬角色改寫內容創(chuàng)作賺錢邏輯
- 華為聯(lián)發(fā)科專利官司再燃戰(zhàn)火 雙方到底爭的是什么?
- 瑞金醫(yī)院與華為“博士天團”聯(lián)手攻堅 煉就頂級病理大模型并啟動開源
- 投行稱英偉達市值將沖擊6萬億美元 AI之外還有機器人萬億市場
- 中國信通院提出AI WAN目標架構,運營商IP廣域網價值變現迎契機
- 5G-A,聯(lián)通用AI幫你這么玩兒
- 共建AI時代全球化開發(fā)者生態(tài),華為云持續(xù)加碼海外布局
- 直擊2025 MWC上海:5G-A加速跑,AItoX落地忙
- 行業(yè)熱議“芯片問題沒必要擔心”,背后的AI創(chuàng)新范式已變
- 28歲華裔創(chuàng)建Scale AI,憑什么拿到Meta天價投資?
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。