北京時間5月18日下午消息(蔣均牧)微軟支持的OpenAI首席執(zhí)行官山姆·阿爾特曼(Sam Altman)呼吁美國監(jiān)管高級大型語言模型的部署,警告沒有堅(jiān)實(shí)的政策框架的生成式人工智能的危險。
在與美國參議院討論生成式AI治理的聽證會上,阿爾特曼認(rèn)為,隨著對社會威脅的擔(dān)憂日益加劇,監(jiān)管對于減輕日益強(qiáng)大的模型帶來的風(fēng)險至關(guān)重要。
在他的證詞中討論的威脅,集中在與OpenAI如何訓(xùn)練其模型相關(guān)的錯誤信息的傳播和違反數(shù)據(jù)隱私法。
參議員理查德·布盧門撒爾(Richard Blumenthal)在聽證會上表示,未經(jīng)充分訓(xùn)練的人工智能的前景“非常可怕”,并認(rèn)為新技術(shù)必須“擔(dān)負(fù)責(zé)任”。
他指出,OpenAI的ChatGPT具有模仿和模擬真實(shí)人類互動的能力,他以一段由經(jīng)過語音訓(xùn)練的模型生成的語音開始了他的證詞。
阿爾特曼建議稱,成立一個政府機(jī)構(gòu)來監(jiān)管人工智能的訓(xùn)練和部署將有助于開發(fā),并解釋了對于開發(fā)者“許可和測試要求相結(jié)合”的必要性。
他還提議吊銷開發(fā)超出某些“閾值”或“能力”的人工智能工具的開發(fā)者的許可,例如能自我復(fù)制或產(chǎn)生有害內(nèi)容的模型。
阿爾特曼主張圍繞機(jī)器學(xué)習(xí)工具如何從互聯(lián)網(wǎng)手機(jī)數(shù)據(jù)以生成響應(yīng)來制定管理規(guī)則。
“用戶應(yīng)該能選擇不讓我們這樣的公司或其他社交媒體公司使用他們的數(shù)據(jù)。”他補(bǔ)充道。
- 蜜度索驥:以跨模態(tài)檢索技術(shù)助力“企宣”向上生長
- TechWeb微晚報:ChatGPT又崩了,寧德時代擬赴港上市
- 要做中國的OpenAI?字節(jié)跳動2024年研發(fā)開支接近BAT之和
- 韓國立法應(yīng)對AI風(fēng)險:構(gòu)建治理體系,防范風(fēng)險,推動產(chǎn)業(yè)發(fā)展
- AI明年有望破解動物叫聲溝通模式:揭開動物溝通新篇章
- 快手推出全新圖像模型:AI模特功能,讓每一張圖片都生動起來
- 新數(shù)據(jù)體系助力國資央企高質(zhì)量發(fā)展,打造數(shù)據(jù)集新時代
- 字節(jié)跳動 AI 投入激增:從 BAT 之和到翻倍,未來競爭新焦點(diǎn)
- 重癥醫(yī)療大模型問世:ICU病房迎來AI助手,創(chuàng)新科技助力醫(yī)療革新
- LG推出落地?zé)羰街悄苤参飯@:種植、培育,一燈搞定
- ChatGPT又崩了 OpenAI:由上游提供商引起 現(xiàn)已恢復(fù)
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。