BBC發(fā)現(xiàn),用AI生成的新聞摘要問題太多

BBC研究發(fā)現(xiàn),AI新聞摘要常常失實,引發(fā)對信息準確性的擔憂。

BBC在經歷了Apple Intelligence誤報事件后,發(fā)布了一項關于AI助手新聞摘要準確性的研究,結果令人堪憂。今年1月,Apple的AI服務生成了一條虛假新聞標題,錯誤地聲稱一名被捕男子Luigi Mangione自殺。事實上,這一消息并不屬實,BBC對此提出了投訴。雖然Apple承諾進行軟件更新以澄清內容來源,并暫時關閉了新聞和娛樂摘要功能,但截至iOS 18.3版本發(fā)布,該功能仍未恢復。

這次事件促使BBC對其他AI新聞摘要服務進行了深入研究。在一篇原創(chuàng)研究報告中,BBC的Pete Archer詳細介紹了公司內部使用AI的情況,包括生成音頻內容字幕和翻譯文章等。他強調,AI在被負責任地使用時能帶來真正的價值,但同時也警告稱,AI對觀眾和信息生態(tài)系統(tǒng)帶來了重大挑戰(zhàn)。

研究重點評估了OpenAI的ChatGPT、Microsoft的Copilot、Google的Gemini和Perplexity助手的表現(xiàn)。這些AI被允許訪問BBC網站,并回答了100個新聞相關問題。結果顯示,51%的AI回答存在重大問題,19%的回答引入了事實錯誤,13%的引用內容與原文不符或根本不存在。

在各大AI助手中,Gemini表現(xiàn)最差,34%的回答存在嚴重問題,其次是Copilot(27%)、Perplexity(17%)和ChatGPT(15%)。常見問題包括事實錯誤、引用錯誤和缺乏背景信息。例如,Gemini錯誤地聲稱英國國家醫(yī)療服務體系(NHS)不建議通過電子煙戒煙,而實際上NHS確實推薦這種方法。

BBC新聞和時事部門的CEO Deborah Turness在一篇博客文章中寫道,AI帶來的好處不應以扭曲事實為代價。她警告說,AI生成的虛假信息可能進一步動搖人們對事實的信任,甚至可能導致嚴重的現(xiàn)實危害。

研究還指出,AI在職場中的廣泛應用可能帶來更深遠的影響。如果AI被用來撰寫郵件或總結會議內容,而接收方也使用AI回復,最終可能導致信息失真,甚至削弱人們的批判性思維能力。

對此,OpenAI表示,他們正在努力改進AI生成內容的準確性和引用方式。Microsoft則強調,他們通過結合用戶輸入和最新數(shù)據來提高AI回答的準確性,并鼓勵用戶核實信息的真實性。

這項研究揭示了AI在新聞摘要中的局限性,即使有直接的信息來源,AI仍然可能生成虛假信息。這不僅對新聞行業(yè),也對所有依賴AI的領域提出了警示。

本文譯自 The Register,由 BALI 編輯發(fā)布。

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

贊助商
2025-02-15
BBC發(fā)現(xiàn),用AI生成的新聞摘要問題太多
BBC研究發(fā)現(xiàn),AI新聞摘要常常失實,引發(fā)對信息準確性的擔憂。BBC在經歷了Apple Intelligence誤報事件后,發(fā)布了一項關于AI助手新聞摘要準確性的研究,結果令人堪憂。

長按掃碼 閱讀全文