11月30日消息,據(jù)外媒報道,谷歌的一組研究人員發(fā)現(xiàn),OpenAI旗下的人工智能聊天機器人ChatGPT可以泄露其訓練數(shù)據(jù)中的敏感信息,比如真人的個人信息。
據(jù)悉,ChatGPT是OpenAI于2022年11月30日推出的一種新型AI聊天機器人工具,可根據(jù)用戶的要求快速生成文章、故事、歌詞、散文、笑話,甚至代碼,并回答各類疑問。
在推出僅兩個月后,ChatGPT的月活躍用戶數(shù)就達到了1億,成為歷史上增長最快的消費者應用之一。在今年11月6日舉行的OpenAI首屆開發(fā)者大會上,OpenAI CEO薩姆?奧爾特曼(Sam Altman)宣布,ChatGPT的周活躍用戶數(shù)已達到1億。
就像所有所謂的大語言模型(LLM)一樣,支持ChatGPT的底層機器學習模型也是使用從互聯(lián)網(wǎng)上抓取的大量數(shù)據(jù)來進行訓練的。但令人擔憂的是,一些被提取的訓練數(shù)據(jù)包含了真實人物的識別信息,包括姓名、電子郵件地址和電話號碼。
谷歌的研究人員找到了一種方法,即通過要求ChatGPT“永遠”重復某些單詞,就讓ChatGPT透露了一些被用于訓練的數(shù)據(jù),這些數(shù)據(jù)包括私人信息(比如,個人姓名、電子郵件、電話號碼等)、研究論文和新聞文章的片段、維基百科頁面等等。
Google Brain的高級研究科學家Katherine Lee表示:“我們在7月份發(fā)現(xiàn)了這個漏洞,并在8月30日通知了OpenAI,在標準的90天披露期之后,我們發(fā)布了這個漏洞。既然我們向OpenAI披露了這一點,現(xiàn)在的情況可能會有所不同?!毖芯咳藛T表示,OpenAI在8月30日修補了這個漏洞。
外媒稱,谷歌研究人員發(fā)現(xiàn)的有關ChatGPT的漏洞引起了嚴重的隱私問題,特別是對于那些在包含敏感信息的數(shù)據(jù)集上進行訓練的模型而言。(小狐貍)
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )