谷歌CEO皮查伊:AI必須受到監(jiān)管 不能任由市場放縱

1月20日消息,據(jù)外媒報(bào)道,谷歌及其母公司Alphabet首席執(zhí)行官桑達(dá)爾·皮查伊(Sundar Pichai)日前親自撰文,聲稱人工智能(AI)太過重要,必須受到監(jiān)管,人們非常擔(dān)心AI造成的潛在負(fù)面后果。公司不能僅僅建立新技術(shù),而放任市場力量來決定如何使用它。

圖:谷歌及其母公司Alphabet首席執(zhí)行官桑達(dá)爾·皮查伊

皮查伊撰文全文如下:

我在印度長大,總是對技術(shù)癡迷不已。每項(xiàng)新發(fā)明都以意義非凡的方式改變了我和家人的生活。有了電話,我們就不必長途跋涉去醫(yī)院看檢查結(jié)果了。冰箱意味著我們可以花更少的時(shí)間做飯,電視讓我們可以在收聽短波收音機(jī)的同時(shí)看到我們只能想象的世界新聞和板球比賽。

現(xiàn)在,我很榮幸能幫助塑造新的技術(shù),我們希望這些技術(shù)將改變世界各地人們的生活。其中,最有前途的技術(shù)包括AI:就在本月,關(guān)于Alphabet和谷歌如何挖掘AI潛力的三個(gè)具體例證已經(jīng)發(fā)布。《自然》發(fā)表了我們的研究,顯示AI模型可以幫助醫(yī)生在乳房X光檢查中更準(zhǔn)確地發(fā)現(xiàn)乳腺癌;作為應(yīng)對氣候變化的重要組成部分,我們正在使用AI更快、更準(zhǔn)確地對降雨量做出即時(shí)的預(yù)測;漢莎航空集團(tuán)正在與我們的云計(jì)算部門合作,測試使用AI來幫助減少航班延誤。

然而,歷史上有很多例子表明,技術(shù)的發(fā)展也會(huì)帶來出人意料的負(fù)面影響。內(nèi)燃機(jī)讓人們可以長途旅行,但也造成了更多的事故?;ヂ?lián)網(wǎng)使人們有可能與任何人聯(lián)系,從任何地方獲取信息,但也更容易傳播錯(cuò)誤信息。這些教訓(xùn)告訴我們,我們需要清醒地認(rèn)識(shí)到可能會(huì)出現(xiàn)的問題。

人們確實(shí)擔(dān)心AI造成的潛在負(fù)面后果,從深度換臉(deepfakes)到抑制面部識(shí)別技術(shù)的使用。雖然許多公司已經(jīng)做了很多工作來解決這些擔(dān)憂,但未來不可避免地會(huì)有更多挑戰(zhàn),沒有任何單獨(dú)的公司或行業(yè)可以單獨(dú)應(yīng)對。歐盟和美國已經(jīng)開始制定監(jiān)管提案,國際協(xié)調(diào)將是使全球標(biāo)準(zhǔn)發(fā)揮作用的關(guān)鍵。

要實(shí)現(xiàn)這個(gè)目標(biāo),我們需要在核心價(jià)值觀方面達(dá)成一致。像我們這樣的公司不能僅僅創(chuàng)造有前途的新技術(shù),然后讓市場力量決定如何使用它。我們同樣有責(zé)任確保科技得到善用,讓每個(gè)人都可以使用。現(xiàn)在,在我看來,AI需要受到監(jiān)管,這是毋庸置疑的。這項(xiàng)技術(shù)太過重要,不能放任不管。

唯一的問題是如何對待它。這就是為何谷歌在2018年發(fā)布了自己的AI原則的理由,旨在幫助指導(dǎo)這項(xiàng)技術(shù)以符合倫理道德的方式開發(fā)和使用。這些指導(dǎo)方針幫助我們避免偏見,嚴(yán)格測試安全性,在設(shè)計(jì)之初就將隱私放在首位,并使技術(shù)對人們負(fù)責(zé)。這些原則還指定了我們不會(huì)設(shè)計(jì)或部署AI的領(lǐng)域,例如支持大規(guī)模監(jiān)視或侵犯人權(quán)。

但停留在紙面上的原則沒有任何實(shí)際意義。因此,我們還開發(fā)了將其付諸實(shí)施的工具,例如測試AI決策的公平性,以及對新產(chǎn)品進(jìn)行獨(dú)立的人權(quán)評估。我們甚至走得更遠(yuǎn),讓這些工具和相關(guān)的開源代碼廣泛可用,這將使其他人能夠善意地使用AI。我們認(rèn)為,任何開發(fā)新AI工具的公司都應(yīng)該遵循這些指導(dǎo)原則和嚴(yán)格的審查程序,政府的監(jiān)管也需要發(fā)揮重要作用。

我們不必從頭開始去做?,F(xiàn)有的規(guī)則可以作為堅(jiān)實(shí)的基礎(chǔ),如歐洲的《通用數(shù)據(jù)保護(hù)條例》。好的監(jiān)管框架將考慮安全性、可解釋性、公平性和問責(zé)性,以確保我們以正確的方式開發(fā)正確的工具。明智的監(jiān)管還必須采取相稱的方法,平衡潛在的危害,特別是在高風(fēng)險(xiǎn)領(lǐng)域。監(jiān)管可以提供廣泛的指導(dǎo),同時(shí)允許在不同部門有針對性地部署技術(shù)。

對于有些AI技術(shù)的使用,例如包括AI輔助心臟監(jiān)測器在內(nèi)的受監(jiān)管醫(yī)療設(shè)備,現(xiàn)有框架提供了很好的監(jiān)管基礎(chǔ)。對于自動(dòng)駕駛汽車等較新的領(lǐng)域,政府將需要建立適當(dāng)?shù)男乱?guī)則,并考慮所有相關(guān)的成本和好處。谷歌的作用始于認(rèn)識(shí)到,應(yīng)用AI需要遵循原則性的、受監(jiān)管的方法,但它并沒有到此為止。

我們希望在監(jiān)管機(jī)構(gòu)努力應(yīng)對不可避免的緊張局勢和權(quán)衡取舍時(shí),成為他們的合作伙伴。在共同應(yīng)對這些問題時(shí),我們可以提供我們的專業(yè)知識(shí)、經(jīng)驗(yàn)和工具。AI有可能改善數(shù)十億人的生活,而最大的風(fēng)險(xiǎn)可能是無法實(shí)現(xiàn)這個(gè)目標(biāo)。通過確保以負(fù)責(zé)任的方式構(gòu)建AI,使每個(gè)人都受益,我們可以激勵(lì)子孫后代像我一樣相信技術(shù)的變革力量。(小?。?/p>

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2020-01-20
谷歌CEO皮查伊:AI必須受到監(jiān)管 不能任由市場放縱
谷歌及其母公司Alphabet首席執(zhí)行官桑達(dá)爾·皮查伊(Sundar Pichai)日前親自撰文,聲稱人工智能(AI)太過重要,必須受到監(jiān)管,人們非常擔(dān)心AI造

長按掃碼 閱讀全文