8月5日消息,據(jù)外媒報(bào)道,生成式人工智能技術(shù)是近兩年全球科技領(lǐng)域的一大熱點(diǎn),各種大語言模型和生成式人工智能聊天機(jī)器人的推出,給消費(fèi)者的日常生活和工作帶來了便利,例如由OpenAI訓(xùn)練的ChatGPT,在撰寫郵件、文案、翻譯、代碼等方面,就能為用戶提供幫助。
但隨著生成式人工智能技術(shù)不斷增強(qiáng)和廣泛應(yīng)用,弊端也日益凸顯,被濫用的越來越多,部分學(xué)生更是將其用來完成作業(yè)、撰寫論文等,甚至在部分教授的論文中,也出現(xiàn)了來自生成式人工智能的內(nèi)容。而在人工智能生成內(nèi)容越來越普遍的背景下,了解內(nèi)容的來源、確定是否是來自于生成式人工智能及確保內(nèi)容的真實(shí)可靠也就變得越來越重要。
而從外媒的報(bào)道來看,在生成式人工智能領(lǐng)域走在前列的OpenAI,一直在嘗試通過新的方式,來確保生成式人工智能文本的真實(shí)性。
在最新的報(bào)道中,外媒就提到,OpenAI在為ChatGPT測(cè)試文本水印,在檢測(cè)釋義等局部變化時(shí),已顯現(xiàn)出很高的準(zhǔn)確性。
雖然OpenAI方面目前并未公布他們?yōu)镃hatGPT研發(fā)的文本水印是如何運(yùn)作的,但外媒猜測(cè)可能是在生成的文本中嵌入隱藏的標(biāo)識(shí)符,這樣更容易追蹤和驗(yàn)證一段內(nèi)容是否由人工智能生成。
不過,也有外媒在報(bào)道中提到,OpenAI為ChatGPT測(cè)試的文本水印,也面臨挑戰(zhàn),使用翻譯工具或其他模型改變文本后,不一定能做到萬無一失。此外,也有研究表明,文本水印可能會(huì)對(duì)部分人群造成影響,例如將ChatGPT作為寫作輔助工具的母語為其他語言的人群,會(huì)對(duì)他們的非母語寫作造成影響。
當(dāng)然,外媒在報(bào)道中也提到,OpenAI在考慮的不只是文本水印,他們也在探索其他的方式,來確定文本內(nèi)容的來源,外媒提到的就有元數(shù)據(jù)和檢測(cè)分類器。加密簽名的元數(shù)據(jù),可以提供一種更可靠的方法來跟蹤文本的來源。檢測(cè)分類器是使用人工智能,來識(shí)別文本內(nèi)容是否由OpenAI模型生成的工具。(海藍(lán))
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )