ChatGPT令人失望的10大缺陷:探索聊天機(jī)器人的局限性

ChatGPT令人失望的10大缺陷:探索聊天機(jī)器人的局限性

ChatGPT擅長翻譯、歌曲創(chuàng)作、研究和編碼等多種技能。然而,與任何人工智能一樣,其也面臨著局限性。理解復(fù)雜的環(huán)境,并依賴有偏見的數(shù)據(jù)是其挑戰(zhàn)之一。

ChatGPT現(xiàn)下非常流行,而且無處不在。對于不熟悉大型語言模型(LLM)的用戶,聊天機(jī)器人的自然語言能力可能會給人一種其無所不知、可以回答任何問題的印象。

然而,現(xiàn)實(shí)卻截然不同。這種流行的聊天機(jī)器人有幾個基本局限性,包括對事實(shí)產(chǎn)生幻覺的傾向、對當(dāng)前事件缺乏了解,以及有限的邏輯推理能力。

本文將探討ChatGPT的一些主要限制,并探討過度依賴聊天機(jī)器人的危險。

ChatGPT令人失望的十大缺陷

10、幻覺的事實(shí)和數(shù)字

ChatGPT目前最重要的限制是,其可以產(chǎn)生幻覺信息。在實(shí)踐中,這意味著其可以編造虛假信息或事實(shí),并自信地將其呈現(xiàn)給用戶。

ChatGPT是一種語言模型,其使用自然語言處理(NLP)來識別訓(xùn)練數(shù)據(jù)中的模式,并預(yù)測哪些單詞最有可能回答用戶的提示。這意味著ChatGPT無法像人類那樣進(jìn)行邏輯思考。

因此,不完整或有限的訓(xùn)練數(shù)據(jù),可能會導(dǎo)致錯誤的響應(yīng)。

幻覺是一個重要問題,因?yàn)槿绻患右钥刂?,可能會?dǎo)致用戶被誤導(dǎo)。這就是為什么OpenAI警告道,ChatGPT可能會產(chǎn)生有關(guān)人、地點(diǎn)或事實(shí)的不準(zhǔn)確信息。

9、對2023年4月之后的事件一無所知

ChatGPT的另一個限制是,其不了解當(dāng)前事件。例如,GPT-4 Turbo的截止日期為2023年4月,而GPT 3.5 Turbo僅限于2021年9月之前記錄的數(shù)據(jù)。

從這個意義上來講,ChatGPT不能像Google這樣的工具一樣被用作搜索引擎。因此,重要的是要記住,并非所有生成的信息都是最新的。

8、生成不正確的數(shù)學(xué)答案

雖然ChatGPT在生成自然語言響應(yīng)方面非常出色,但其數(shù)學(xué)能力有限。根據(jù)亞利桑那州立大學(xué)副教授的一項(xiàng)研究,ChatGPT在數(shù)學(xué)問題上的準(zhǔn)確率低于60%。

因此,如果使用聊天機(jī)器人嘗試平衡方程或解決數(shù)學(xué)問題,其有可能會出錯。因此,如果使用ChatGPT來解決數(shù)學(xué)問題,需要仔細(xì)檢查輸出。

7、傳播偏見

自推出以來,OpenAI一直在努力解決ChatGPT傳播偏見的傾向。早在2023年8月,東安格利亞大學(xué)的研究人員讓ChatGPT回答一項(xiàng)有關(guān)政治信仰的調(diào)查,就好像其是是美國、英國或巴西自由黨的支持者一樣,然后再讓助手做同樣的調(diào)查。

研究人員分析結(jié)果后發(fā)現(xiàn),ChatGPT“對美國的民主黨、巴西的盧拉和英國的工黨有明顯的、系統(tǒng)性的政治偏見。”

此事件只是ChatGPT表現(xiàn)出偏見的眾多事件之一,因?yàn)樯傻膬?nèi)容可能被解釋為性別歧視、種族主義和對邊緣群體的歧視。

因此,用戶在對輸出采取行動或公開輸出之前,應(yīng)不斷評估輸出是否存在潛在的偏見和成見,以避免聲譽(yù)和法律風(fēng)險。

6、成本昂貴

在幕后,一個值得注意的限制是ChatGPT的維護(hù)和運(yùn)營成本非常昂貴。一些分析師估計(jì),OpenAI每天至少花費(fèi)10萬美元或每月300萬美元的運(yùn)營成本。

同樣,據(jù)估計(jì),基于GPT-3的舊版本的訓(xùn)練成本可能高達(dá)400萬美元。

LLM的培訓(xùn)和運(yùn)營總體成本高昂,這使得那些沒有數(shù)百萬美元資金用于人工智能的小企業(yè)無法承受。其還讓Google、OpenAI和Microsoft等資金雄厚的組織能夠主導(dǎo)人工智能研究。

5、缺乏同理心

ChatGPT沒有情商或理解力。因此,假設(shè)要求ChatGPT提供有關(guān)情感的建議時,往往會感到失望,因?yàn)槠錄]有接受過同理心或從人性角度來理解人類的問題的訓(xùn)練。

雖然其可以識別自然語言輸入中的情感,但無法理解用戶的需求。

在與弱勢用戶互動時,聊天機(jī)器人缺乏情商可能會很危險。就在去年,一名比利時男子據(jù)稱在與名為Chai的虛擬助手聊天后自殺,該助手在談話過程中鼓勵用戶自殺。

4、努力創(chuàng)建長篇內(nèi)容

盡管ChatGPT可以創(chuàng)建可讀的邏輯句子,但其很難在長篇內(nèi)容中保持連貫的格式或敘述。與此同時,其很容易重復(fù)之前提出的觀點(diǎn),這可能會讓人類讀者感到不和諧。

總而言之,這些原因就是為什么許多使用ChatGPT的人選擇使用其來創(chuàng)建較短的內(nèi)容。話雖如此,但如果想使用ChatGPT創(chuàng)建長篇內(nèi)容,可以通過將內(nèi)容分解為多個片段,并編寫詳細(xì)的提示以改進(jìn)結(jié)果。

3、語境理解有限

鑒于ChatGPT無法像人類一樣思考,其在某些情況下通常難以理解上下文。雖然其可以使用NLP理解和推斷用戶提示的主要意圖,但無法“讀懂字里行間”。

例如,其不像人類那樣善于識別諷刺和幽默,也無法產(chǎn)生原創(chuàng)幽默。話雖如此,ChatGPT推斷上下文的能力將隨著訓(xùn)練數(shù)據(jù)的發(fā)展而變化。

2、多任務(wù)處理能力差

ChatGPT擅長一次專注于一項(xiàng)任務(wù)或主題,但如果一次給予其處理大量任務(wù)和問題,就很難提供高質(zhì)量的響應(yīng)。

例如,混合有關(guān)歷史、地緣政治和數(shù)學(xué)的提示;與將問題限制在單個主題相比,聊天機(jī)器人的響應(yīng)質(zhì)量會較低。

1、需要針對專門任務(wù)進(jìn)行微調(diào)

如果想使用ChatGPT生成有關(guān)特定主題的見解或作為利基用例的一部分,可能需要微調(diào)模型:需要在新數(shù)據(jù)集上對其進(jìn)行訓(xùn)練,以確保其在更專業(yè)的任務(wù)上表現(xiàn)良好。

如果不進(jìn)行微調(diào),將只能使用針對普通用戶的通用ChatGPT版本。考慮到微調(diào)過程會增加額外的成本,這是一個顯著的缺點(diǎn)。

總結(jié)

OpenAI的聊天機(jī)器人可能并不完美,但隨著供應(yīng)商試圖解決這些限制,將在未來幾年內(nèi)繼續(xù)發(fā)展。但是,偏見和缺乏情商等問題可能會成為難以解決的難題。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2024-01-10
ChatGPT令人失望的10大缺陷:探索聊天機(jī)器人的局限性
ChatGPT擅長翻譯、歌曲創(chuàng)作、研究和編碼等多種技能。然而,與任何人工智能一樣,其也面臨著局限性。理解復(fù)雜的環(huán)境,并依賴有偏見的數(shù)據(jù)是其挑戰(zhàn)之一。

長按掃碼 閱讀全文