5月22日消息,隨著生成式人工智能等新技術(shù)成為科技界新熱潮,關(guān)于人工智能是否會(huì)毀滅人類(lèi)的爭(zhēng)論愈演愈烈。有知名科技領(lǐng)袖警告稱,人工智能可能會(huì)接管整個(gè)世界。其他研究人員和高管則表示,這種說(shuō)法是科幻小說(shuō)。
在上周召開(kāi)的美國(guó)國(guó)會(huì)聽(tīng)證會(huì)上,人工智能初創(chuàng)企業(yè)OpenAI首席執(zhí)行官薩姆·奧爾特曼(Sam Altman)明確提醒大家,該公司公開(kāi)的這項(xiàng)技術(shù)存在安全風(fēng)險(xiǎn)。
奧爾特曼警告說(shuō),ChatGPT聊天機(jī)器人等人工智能技術(shù)可能會(huì)引發(fā)虛假信息和惡意操縱等問(wèn)題,并呼吁進(jìn)行監(jiān)管。
他表示,人工智能可能“對(duì)世界造成嚴(yán)重傷害”。
奧爾特曼在美國(guó)國(guó)會(huì)作證之際,關(guān)于人工智能是否會(huì)主宰世界的辯論正轉(zhuǎn)向主流,整個(gè)硅谷和致力于推廣人工智能技術(shù)的人士意見(jiàn)不一、分歧也越來(lái)越大。
以前曾有個(gè)別人認(rèn)為,機(jī)器的智力水平可能會(huì)突然超越人類(lèi),并決定毀滅人類(lèi),現(xiàn)在這種邊緣型想法正在獲得越來(lái)越多人的支持。一些權(quán)威科學(xué)家甚至都認(rèn)為計(jì)算機(jī)學(xué)會(huì)超越人類(lèi)并能控制人的時(shí)間將有所縮短。
但許多研究人員和工程師表示,雖然不少人擔(dān)心現(xiàn)實(shí)中出現(xiàn)像電影《終結(jié)者》中的天網(wǎng)那種殺手型人工智能,但這種擔(dān)憂并不是基于合乎邏輯的好科學(xué)。相反其分散了人們對(duì)這種技術(shù)已經(jīng)造成現(xiàn)實(shí)問(wèn)題的注意力,包括奧爾特曼在證詞中所描述的問(wèn)題?,F(xiàn)在的人工智能技術(shù)正在混淆版權(quán),加劇人們對(duì)數(shù)字隱私和監(jiān)控的擔(dān)憂,還可能被用來(lái)提高黑客突破網(wǎng)絡(luò)防御的能力。
谷歌、微軟以及OpenAI都已經(jīng)公開(kāi)發(fā)布突破性的人工智能技術(shù)。這些技術(shù)可以與用戶進(jìn)行復(fù)雜對(duì)話,并根據(jù)簡(jiǎn)單文本提示生成圖像。關(guān)于邪惡人工智能的爭(zhēng)論已經(jīng)升溫。
“這不是科幻小說(shuō),”人工智能教父、谷歌前員工杰弗里·辛頓(Geoffrey Hinton)說(shuō)。辛頓表示,比人類(lèi)更聰明的人工智能可能會(huì)在5到20年內(nèi)出現(xiàn),而他之前的估計(jì)是30到100年。
“就好像外星人已經(jīng)登陸地球或即將登陸,”他說(shuō)?!拔覀冋娴臒o(wú)法接受,因?yàn)樗鼈冎v話流利,它們很有用,它們會(huì)寫(xiě)詩(shī),還會(huì)回復(fù)無(wú)聊的信。但它們真的是外星人?!?/p>
盡管如此,在大型科技公司內(nèi)部,許多與這項(xiàng)技術(shù)有密切關(guān)系的工程師并不認(rèn)為人工智能取代人類(lèi)是大家現(xiàn)在需要擔(dān)心的事情。
人工智能初創(chuàng)公司Cohere旗下研究實(shí)驗(yàn)室Cohere for AI主管、前谷歌研究員薩拉·胡克(Sara Hooker)說(shuō):“在積極從事這一學(xué)科的研究人員中,關(guān)注當(dāng)前現(xiàn)實(shí)風(fēng)險(xiǎn)的人遠(yuǎn)遠(yuǎn)多于關(guān)注人類(lèi)是否有生存風(fēng)險(xiǎn)的人?!?/p>
目前的現(xiàn)實(shí)風(fēng)險(xiǎn)很多,比如發(fā)布受過(guò)不良內(nèi)容訓(xùn)練的機(jī)器人會(huì)加深偏見(jiàn)和歧視等問(wèn)題;人工智能的絕大多數(shù)訓(xùn)練數(shù)據(jù)用的都是英語(yǔ),主要來(lái)自北美或歐洲,這可能會(huì)使互聯(lián)網(wǎng)更加偏離大多數(shù)人的語(yǔ)言和文化;這些機(jī)器人還經(jīng)常編造虛假信息,將其偽裝成事實(shí);在某些情況下,它們甚至?xí)萑牍粲脩舻臒o(wú)限循環(huán)對(duì)話。此外,人們也不清楚這項(xiàng)技術(shù)帶來(lái)的連鎖反應(yīng),所有行業(yè)都在為人工智能可能帶來(lái)的顛覆或變革做準(zhǔn)備,甚至律師或醫(yī)生等高薪工作也會(huì)被取代。
也有人認(rèn)為,未來(lái)人工智能可能會(huì)傷害人類(lèi),甚至以某種方式控制整個(gè)社會(huì)。雖然事關(guān)人類(lèi)生存的風(fēng)險(xiǎn)似乎更加嚴(yán)峻,但許多人認(rèn)為,這種風(fēng)險(xiǎn)更難量化,也不那么具體。
“有一群人認(rèn)為,這些只是算法。它們只是在重復(fù)網(wǎng)上看到的內(nèi)容。”今年4月份谷歌首席執(zhí)行官桑德?tīng)枴てげ橐粒⊿undar Pichai)在接受采訪時(shí)表示:“還有一種觀點(diǎn)認(rèn)為,這些算法正涌現(xiàn)出新特性,具有創(chuàng)造力、推理能力和規(guī)劃能力?!薄拔覀冃枰獙徤鲗?duì)待這件事?!?/p>
這場(chǎng)爭(zhēng)論源于過(guò)去10年間計(jì)算機(jī)科學(xué)領(lǐng)域機(jī)器學(xué)習(xí)技術(shù)的不斷突破。機(jī)器學(xué)習(xí)創(chuàng)造出相關(guān)軟件和技術(shù),可以在沒(méi)有人類(lèi)明確指令的情況下,從大量數(shù)據(jù)中提取出新穎見(jiàn)解。這種技術(shù)在社交媒體算法、搜索引擎和圖像識(shí)別程序等各種應(yīng)用中無(wú)處不在。
去年,OpenAI和其他幾家小公司開(kāi)始陸續(xù)發(fā)布使用新機(jī)器學(xué)習(xí)技術(shù)的工具:生成式人工智能。這種所謂的大語(yǔ)言模型用網(wǎng)上抓取的上萬(wàn)億張照片和句子進(jìn)行自我訓(xùn)練后,可以根據(jù)簡(jiǎn)單提示生成圖像和文本,與用戶開(kāi)展復(fù)雜對(duì)話,并編寫(xiě)計(jì)算機(jī)代碼。
未來(lái)生命研究所(Future of Life Institute)執(zhí)行董事安東尼·阿吉雷(Anthony Aguirre)說(shuō),大公司正在競(jìng)相開(kāi)發(fā)越來(lái)越智能的機(jī)器,幾乎沒(méi)有任何監(jiān)管。未來(lái)生命研究所成立于2014年,目的是研究社會(huì)存在的風(fēng)險(xiǎn)。在特斯拉首席執(zhí)行官埃隆·馬斯克(Elon Musk)的資助下,研究所于2015年開(kāi)始研究人工智能毀滅人類(lèi)的可能性。
阿吉雷說(shuō),如果人工智能獲得比人類(lèi)更好的推理能力,它們就會(huì)試圖實(shí)現(xiàn)自我控制。這是值得人們擔(dān)心的,就像現(xiàn)在存在的現(xiàn)實(shí)問(wèn)題一樣。
他說(shuō):“如何約束它們不偏離軌道,將變得越來(lái)越復(fù)雜?!薄安簧倏苹眯≌f(shuō)已經(jīng)說(shuō)得很具體了?!?/p>
今年3月份,阿吉雷幫助撰寫(xiě)了一封公開(kāi)信,呼吁暫停訓(xùn)練新的人工智能模型6個(gè)月時(shí)間。這封公開(kāi)信共獲得27000位人士簽名支持,獲得2018年計(jì)算機(jī)科學(xué)最高獎(jiǎng)項(xiàng)的資深人工智能研究員約書(shū)亞·本吉奧(Yoshua Bengio)和最具影響力的人工智能初創(chuàng)企業(yè)之一首席執(zhí)行官埃馬德·莫斯塔克(Emad Mostaque)都位列其中。
馬斯克無(wú)疑是其中最引人注目的。他曾幫助創(chuàng)建OpenAI,現(xiàn)在自己也在忙著組建人工智能公司,最近投資了訓(xùn)練人工智能模型所需的昂貴計(jì)算機(jī)設(shè)備。
多年來(lái)馬斯克一直認(rèn)為,人類(lèi)應(yīng)該對(duì)發(fā)展超級(jí)人工智能的后果倍加小心。在上周特斯拉年度股東大會(huì)期間接受采訪時(shí),馬斯克表示,自己當(dāng)初之所以資助OpenAI,是因?yàn)樗X(jué)得谷歌聯(lián)合創(chuàng)始人拉里·佩奇(Larry Page)對(duì)人工智能的威脅“漫不經(jīng)心”。
美版知乎Quora也在開(kāi)發(fā)自家人工智能模型。公司首席執(zhí)行官亞當(dāng)·德安吉洛(Adam D’angelo)沒(méi)有在公開(kāi)信上簽名。他在談到這封公開(kāi)信時(shí)說(shuō),“人們提出這項(xiàng)建議時(shí)有各自不同的動(dòng)機(jī)。”
OpenAI首席執(zhí)行官奧爾特曼也不認(rèn)可公開(kāi)信內(nèi)容。他表示,自己贊同這封公開(kāi)信的部分內(nèi)容,但總體上缺乏“技術(shù)細(xì)節(jié)”,并不是監(jiān)管人工智能的正確方式。奧爾特曼在上周二舉行的人工智能聽(tīng)證會(huì)上表示,他公司的做法是盡早向公眾推出人工智能工具,以便在技術(shù)變得更強(qiáng)大之前發(fā)現(xiàn)和解決問(wèn)題。
但科技界有關(guān)殺手型機(jī)器人的爭(zhēng)論越來(lái)越多。其中一些最嚴(yán)厲的批評(píng)來(lái)自多年來(lái)一直研究這項(xiàng)技術(shù)缺陷的研究人員。
2020年,谷歌研究人員蒂姆尼特·格布魯(Timnit Gebru)和瑪格麗特·米切爾(Margaret Mitchell)與華盛頓大學(xué)學(xué)者艾米麗·M·本德(Emily M. Bender)和安吉麗娜·麥克米蘭-梅杰(Angelina McMillan-Major)合作撰寫(xiě)了一篇論文。他們認(rèn)為,大語(yǔ)言模型模仿人類(lèi)的能力不斷增強(qiáng),這加劇了人們會(huì)認(rèn)為它們是有感情的風(fēng)險(xiǎn)。
相反,他們認(rèn)為這些模型應(yīng)該被理解為“隨機(jī)的鸚鵡學(xué)舌”,或者說(shuō)僅僅是非常擅長(zhǎng)純粹根據(jù)概率預(yù)測(cè)句子接下來(lái)會(huì)出現(xiàn)哪一個(gè)單詞,而不需要理解自己在說(shuō)什么。其他批評(píng)者稱大語(yǔ)言模型是“自動(dòng)補(bǔ)全”或“知識(shí)灌腸”。
他們?cè)敿?xì)記錄了大語(yǔ)言模型如何照本宣科地生成性別歧視等不良內(nèi)容。格布魯說(shuō),這篇論文曾被谷歌壓下來(lái)了。在自己堅(jiān)持公開(kāi)發(fā)表這篇文章后,谷歌解雇了她。幾個(gè)月后,公司又解雇了米切爾。
這篇論文的四位合作者也寫(xiě)了一封信,以此回應(yīng)馬斯克等人簽名的公開(kāi)信。
他們說(shuō):“用一個(gè)幻想中的人工智能烏托邦或世界末日來(lái)分散我們的注意力很危險(xiǎn)?!薄跋喾?,我們應(yīng)該關(guān)注那些開(kāi)發(fā)公司非常真實(shí)、非?,F(xiàn)實(shí)的剝削行為,這些公司正在迅速集中力量,加劇社會(huì)不平等。”
谷歌當(dāng)時(shí)拒絕就格布魯被解雇一事發(fā)表評(píng)論,但表示仍有許多研究人員在研究負(fù)責(zé)任和合乎道德的人工智能。
“毫無(wú)疑問(wèn),現(xiàn)代人工智能是強(qiáng)大的,但這并不意味著它們對(duì)人類(lèi)生存的威脅迫在眉睫,”Cohere公司人工智能研究主管胡克說(shuō)。
目前,關(guān)于人工智能擺脫人類(lèi)控制的大部分討論都集中在其如何迅速克服自身的限制上,就像《終結(jié)者》中的天網(wǎng)一樣。
胡克說(shuō):“大多數(shù)技術(shù)和技術(shù)中存在的風(fēng)險(xiǎn)都是逐步變化的?!薄澳壳按嬖诘募夹g(shù)限制加劇了大多數(shù)風(fēng)險(xiǎn)。”
去年,谷歌解雇了人工智能研究員布萊克·萊蒙(Blake Lemoine)。他在接受采訪時(shí)曾表示,自己堅(jiān)信谷歌的LaMDA人工智能模型具有感知能力。當(dāng)時(shí),萊蒙遭到了業(yè)內(nèi)許多人的嚴(yán)厲斥責(zé)。但一年后,科技界也有不少人開(kāi)始接受他的觀點(diǎn)。
前谷歌研究員辛頓說(shuō),直到最近使用了最新的人工智能模型之后,自己改變了對(duì)這項(xiàng)技術(shù)潛在危險(xiǎn)的既定看法。辛頓向計(jì)算機(jī)程序提出一些復(fù)雜的問(wèn)題,在他看來(lái),這些問(wèn)題需要人工智能模型能大致理解他的請(qǐng)求,而不僅僅是根據(jù)訓(xùn)練數(shù)據(jù)預(yù)測(cè)出可能的答案。
今年3月份,微軟研究人員表示,在研究OpenAI的最新模型GPT4時(shí),他們觀察到了“通用人工智能的火花”,其指的就是能夠像人類(lèi)一樣獨(dú)立思考的人工智能。
微軟已經(jīng)花了數(shù)十億美元與OpenAI合作開(kāi)發(fā)必應(yīng)聊天機(jī)器人。質(zhì)疑者認(rèn)為,微軟正在圍繞人工智能技術(shù)打造自己的公眾形象。人們總認(rèn)為這種技術(shù)比實(shí)際情況更先進(jìn),微軟可以從中獲益良多。
微軟研究人員在論文中認(rèn)為,這項(xiàng)技術(shù)僅僅基于所訓(xùn)練的文本內(nèi)容,就已經(jīng)發(fā)展出對(duì)世界空間和視覺(jué)的理解。GPT4可以自動(dòng)畫(huà)出獨(dú)角獸,并描述如何將包括雞蛋在內(nèi)的隨機(jī)物體堆疊在一起,讓雞蛋不會(huì)破碎。
微軟研究團(tuán)隊(duì)寫(xiě)道:“除了掌握語(yǔ)言之外,GPT-4還可以解決涉及數(shù)學(xué)、編程、視覺(jué)、醫(yī)學(xué)、法律、心理學(xué)等領(lǐng)域的各種復(fù)雜新問(wèn)題,而且不需要任何特殊提示?!彼麄兛偨Y(jié)說(shuō),人工智能在許多領(lǐng)域的能力與人類(lèi)相當(dāng)。
不過(guò)其中一位研究人員承認(rèn),盡管人工智能研究人員曾嘗試制定量化標(biāo)準(zhǔn)來(lái)評(píng)估機(jī)器的智能程度,但如何定義“智能”依舊非常棘手。
他說(shuō),“它們都存在問(wèn)題或有爭(zhēng)議?!保ǔ匠剑?/p>
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )