極客網(wǎng)·人工智能 據(jù)《福布斯》9月4日報道,牛津大學的伊利亞·舒梅洛夫博士及其團隊在《自然》雜志上發(fā)表的一項研究中指出,當AI系統(tǒng)僅依賴于由自身生成的內容進行訓練時,其輸出質量會迅速下降。
這種現(xiàn)象被稱為“模型崩潰”,即AI在不斷使用自身生成的數(shù)據(jù)進行訓練后,其輸出內容逐漸失去準確性和實用性。
研究顯示,在經(jīng)過五次連續(xù)的自我生成內容訓練后,AI的輸出質量顯著下降;到了第九次,輸出內容已經(jīng)退化為毫無意義的文本。
舒梅洛夫博士指出,模型崩潰的發(fā)生速度之快和難以察覺的程度令人驚訝。最初,它可能只影響少數(shù)數(shù)據(jù),但隨后會逐漸侵蝕輸出的多樣性,最終導致整體質量的嚴重下降。
為了驗證這一現(xiàn)象,研究人員采用了一種方法:他們使用了一個預訓練的AI系統(tǒng),該系統(tǒng)能夠驅動一個維基百科的版本,并讓AI基于自己生成的內容進行更新。結果發(fā)現(xiàn),隨著受污染數(shù)據(jù)的累積,原本的訓練集逐漸被侵蝕,輸出的信息質量也隨之惡化。例如,在經(jīng)過多次循環(huán)后,原本關于14世紀英國教堂尖頂?shù)臈l目被錯誤地更新為關于短尾兔子的論文。
此外,AWS團隊在6月的另一項研究中發(fā)現(xiàn),大約57%的網(wǎng)絡文本都經(jīng)過了AI算法的處理。如果互聯(lián)網(wǎng)上的人類生成內容被AI生成內容迅速取代,那么AI可能正面臨“自我毀滅”的風險,同時也可能對互聯(lián)網(wǎng)的內容質量造成嚴重影響。
研究最后建議,為了確保AI的長期可持續(xù)發(fā)展,必須確保其能夠訪問到非AI生成的內容,并持續(xù)引入新的人工生成內容,以避免模型崩潰的發(fā)生。
(免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )