AI有時錯得離譜,它的邏輯與人類不同

AI犯錯不如人類那樣可預測且成群出現(xiàn)。了解其錯誤規(guī)律,設計專門的防護機制,才能讓技術更安全地融入社會。

人類每天都會犯錯,從簡單任務到復雜問題,錯誤無處不在。有些錯誤無傷大雅,而另一些可能導致災難。為了應對這些問題,人類花了幾千年設計各種安全機制。例如,賭場定期輪換荷官,避免他們長時間工作時出錯;醫(yī)院會在手術前標記病人肢體,防止操作失誤;甚至在會計和法律審查中,我們也建立了復雜的檢查和糾錯流程。

如今,社會正在快速接納一種全新的“錯誤制造者”——人工智能。像大型語言模型(LLMs)這樣的技術在完成許多認知任務時表現(xiàn)出色,但它們也會犯錯。而且,它們的錯誤與人類的完全不同。AI的錯誤有時會顯得荒謬可笑,比如建議吃石頭或在披薩上加膠水。這種“奇怪”的錯誤模式是人類無法預見的,因此傳統(tǒng)的糾錯方法往往無效。

人類錯誤通常發(fā)生在知識的邊緣領域,比如解高數(shù)題時出錯是常見現(xiàn)象。這些錯誤通常具有聚集性和可預測性,例如疲勞或分心時更易出錯。AI的錯誤則完全不同,它們可能隨機分布在知識范圍內(nèi),毫無主題可言。同樣自信的回答可能是完全正確的,也可能荒謬至極。這種隨機性和不穩(wěn)定性使得人類難以信任AI在復雜問題上的推理能力。

這揭示了兩個研究方向:一是讓AI的錯誤更接近人類,二是為AI設計專屬的糾錯機制。目前已經(jīng)有一些方法能引導LLMs更符合人類的思維方式,比如通過人類反饋強化學習技術,讓AI更傾向于生成“合理”的回答。然而,現(xiàn)有的糾錯系統(tǒng)還不足以解決AI的獨特問題。

相比人類,AI不會感到疲憊或不耐煩,因此可以通過重復詢問和合成多次回答來降低錯誤率。此外,一些專門的工具正在開發(fā)中,用來捕捉和分析AI在錯誤中展現(xiàn)的“奇怪邏輯”,以便更好地預防潛在風險。

盡管AI的錯誤常被認為離譜,但某些模式其實與人類行為相似。例如,LLMs在回答問題時對提示詞敏感,這和人類在問卷調(diào)查中因措辭變化而改變答案的現(xiàn)象如出一轍。此外,AI對常見概念的偏好可能反映了人類“可得性啟發(fā)”的傾向——想到的第一個答案往往并非經(jīng)過深思熟慮的結果。

另一方面,AI在處理長文本時容易“中途分心”,這點也像人類。不過,訓練更多樣化的文本檢索數(shù)據(jù)后,AI在這方面的表現(xiàn)已有改善。此外,研究還發(fā)現(xiàn),某些人類的社交工程技巧,例如假裝身份或開玩笑,竟然也能“欺騙”AI。

雖然人類偶爾也會犯奇怪的錯誤,但這種情況少見且通常預示更嚴重的問題。我們通常不會讓表現(xiàn)出隨機行為的人承擔決策任務。同理,AI的應用應限制在它真正勝任的領域,同時對其錯誤的潛在影響保持警惕。

本文譯自 IEEE Spectrum,由 BALI 編輯發(fā)布。

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )

贊助商
1970-01-01
AI有時錯得離譜,它的邏輯與人類不同
AI犯錯不如人類那樣可預測且成群出現(xiàn)。了解其錯誤規(guī)律,設計專門的防護機制,才能讓技術更安全地融入社會。人類每天都會犯錯,從簡單任務到復雜問題,錯誤無處不在。有些錯誤無傷大雅,而另一些可能導致災難。

長按掃碼 閱讀全文