人工智能:不要開發(fā)致命性自主式武器


人工智能(AI)可以幫助我們預(yù)測自然災(zāi)害、甄別犯罪行為和尋找拐賣人口、診斷致命疾病來拯救生命。不幸的是,它也有可能變成殺人的武器。

致命性自主武器——人工智能自行決定是否殺死鎖定對象的武器——的研發(fā)已經(jīng)在進(jìn)行中了。

7月中的一個周三,未來生命研究所(FLI)——一家專注于利用科技改善人類的組織——發(fā)布了一項聲明,即譴責(zé)致命的自主武器的發(fā)展,并呼吁各國政府禁止這樣的研究。

“人工智能擁有使世界更加美好的巨大的潛力——如果我們?nèi)祟愑衅鸫a的廉恥心,拒絕濫用它們的話?!盕LI總裁Max Tegmark在新聞稿中說。

“能夠自主決定殺人的人工智能武器與生物武器一樣令人厭惡和不安全,應(yīng)該對它們一視同仁?!?/p>

一百七十個組織和2464人簽署了倡議書,承諾“既不參與也不支持致命自主武器的開發(fā)、制造、貿(mào)易或應(yīng)用”。

該承諾的簽署者包括OpenAI創(chuàng)始人Elon Musk,Skype創(chuàng)始人Jaan Tallinn和AI領(lǐng)域的領(lǐng)導(dǎo)者Stuart Russell。

Google DeepMind的三位聯(lián)合創(chuàng)始人(Demis Hassabis,Shane Legg和Mustafa Suleyman)也簽署了這一承諾。 DeepMind是谷歌最重要的人工智能研究團(tuán)隊,該公司最近因與美國國防部合作而陷入到輿論的風(fēng)口浪尖,公司內(nèi)部對其未來的發(fā)展方向產(chǎn)生了巨大的分歧。

今年6月,谷歌發(fā)誓不會續(xù)簽國防部的合同,后來又發(fā)布了人工智能開發(fā)的全新指導(dǎo)方向,其中包括禁止自主式武器。

簽署FLI承諾書可以進(jìn)一步確立該公司自身對致命自主武器的公開立場。

目前尚不清楚該承諾是否會引發(fā)其他具體的實際行動。

聯(lián)合國二十六名成員國已經(jīng)同意在全球范圍內(nèi)禁止使用致命的自主武器,但包括俄羅斯,英國和美國在內(nèi)的一些世界領(lǐng)導(dǎo)人尚未表態(tài)。

這已不是AI專家們第一次聚集在一起發(fā)出反對開發(fā)自主武器的倡議。然而,這次的承諾書確實引來了更多的簽名者,其中包括幾位在業(yè)內(nèi)鼎鼎大名的人物。

不幸的是,即使世界上所有國家都同意禁止研發(fā)致命的自主武器,它也無法阻止個人和某些政府繼續(xù)秘密研制AI武器。

我們即將推開新時代的大門,AI將成為人類事務(wù)和生活中的重要組成部分,看起來我們別無選擇,只能希望聰明的好人總能戰(zhàn)勝壞人。

本文譯自sciencealert,由譯者 majer 基于創(chuàng)作共用協(xié)議(BY-NC)發(fā)布。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2018-12-11
人工智能:不要開發(fā)致命性自主式武器
人工智能(AI)可以幫助我們預(yù)測自然災(zāi)害、甄別犯罪行為和尋找拐賣人口、診斷致命疾病來拯救生命。不幸的是,它也有可能變成殺人的武器。

長按掃碼 閱讀全文