Google Brain新成果:一個(gè)能夠理解機(jī)器思維方式的AI翻譯器

如果一名醫(yī)生告知要進(jìn)行手術(shù),人們肯定首先希望了解為什么——即便對(duì)方不具備任何專業(yè)的醫(yī)學(xué)知識(shí),醫(yī)生明確解釋診斷理由仍然極其必要。而人工智能也一樣。

眾所周知,神經(jīng)網(wǎng)絡(luò)是出了名的難理解——計(jì)算機(jī)雖然能夠提出一項(xiàng)解決方案,但卻無法就產(chǎn)生的結(jié)論做出解釋?,F(xiàn)在,來自Google Brain團(tuán)隊(duì)的一名研究科學(xué)家Been Kim,正在開發(fā)一套“人類翻譯器”,希望構(gòu)建能夠向任何人做出解釋的AI軟件。

約十年前,人工智能背后的神經(jīng)網(wǎng)絡(luò)技術(shù)開始快速發(fā)展,影響了從電子郵件到藥物發(fā)明等各個(gè)領(lǐng)域,同時(shí)表現(xiàn)出越來越強(qiáng)大的學(xué)習(xí)與數(shù)據(jù)模式識(shí)別能力。然而,這種力量本身還帶來了一種不容忽視的警告:一方面,現(xiàn)代深度學(xué)習(xí)網(wǎng)絡(luò)自主學(xué)會(huì)如何駕駛汽車以及發(fā)現(xiàn)保險(xiǎn)欺詐活動(dòng)具備極高復(fù)雜性,同時(shí),也導(dǎo)致其內(nèi)部運(yùn)作方式幾乎無法被理解——沒錯(cuò),就連AI專家也無法破解個(gè)中奧秘。因此,如果我們通過訓(xùn)練神經(jīng)網(wǎng)絡(luò)來識(shí)別可能存在肝癌、精神分裂癥等疾病風(fēng)險(xiǎn)的患者(例如2015年紐約西奈山醫(yī)院開發(fā)的「Deep Patient」深度病患系統(tǒng)),那么結(jié)果就是,我們根本無法準(zhǔn)確辨別神經(jīng)網(wǎng)絡(luò)實(shí)際關(guān)注的是數(shù)據(jù)中的哪些特征。這種“知識(shí)”全面分布在神經(jīng)網(wǎng)絡(luò)的各個(gè)層,其中每一層都存在數(shù)百甚至成千上萬個(gè)連接。

隨著越來越多行業(yè)試圖通過人工智能技術(shù)實(shí)現(xiàn)自身決策,這種類似于“黑匣子”的問題已經(jīng)不再是一種技術(shù)層面的偏執(zhí),而成為實(shí)實(shí)在在的基礎(chǔ)性缺陷。美國國防部高級(jí)研究計(jì)劃局(簡稱DARPA)的“XAI”項(xiàng)目(即可解釋AI)正在積極研究這個(gè)問題,這意味著,可解釋性已經(jīng)由機(jī)器學(xué)習(xí)的邊緣化研究轉(zhuǎn)化為新的探索核心。Kim指出,“人工智能正處于發(fā)展的關(guān)鍵時(shí)刻,人類正在試圖弄清這項(xiàng)技術(shù)是否真能為我們帶來助益。如果我們無法解決這個(gè)可解釋性問題,我們將不會(huì)繼續(xù)推進(jìn)這項(xiàng)技術(shù),甚至有可能將其放棄?!?/p>

Kim和谷歌Brain團(tuán)隊(duì)的同事們剛剛開發(fā)出一套名為“概念激活矢量測(cè)試(Testing with Concept Activation Vectors,簡稱TCAV)”的系統(tǒng),她將其描述為一種“人類翻譯器”,允許用戶向黑匣子AI詢問某些特定高級(jí)概念,從而了解神經(jīng)網(wǎng)絡(luò)的推理過程。舉例來說,如果機(jī)器學(xué)習(xí)系統(tǒng)經(jīng)過訓(xùn)練學(xué)會(huì)了如何發(fā)現(xiàn)圖像當(dāng)中的斑馬,那么人們就可以利用TCASV來確定這套系統(tǒng)在做出決策時(shí)會(huì)賦予“條紋”這一概念怎樣的權(quán)重。

TCAV系統(tǒng)最初是在一套經(jīng)過訓(xùn)練、擁有圖像識(shí)別能力的機(jī)器學(xué)習(xí)模型上進(jìn)行測(cè)試的,不過這套系統(tǒng)同時(shí)也適用于訓(xùn)練為文本識(shí)別以及對(duì)某類數(shù)據(jù)進(jìn)行可視化處理的模型——例如EEG波形。Kim解釋稱,“這是一套通用而簡單的系統(tǒng),你可以將其接入多種不同的模型當(dāng)中?!?/p>

我們與Kim談到了可解釋性的具體含義、其用途以及重要意義所在。以下為經(jīng)過編輯與提煉的訪談內(nèi)容。

圖:Google Brain團(tuán)隊(duì)研究科學(xué)家Been Kim

問:您的職業(yè)生涯一直專注于機(jī)器學(xué)習(xí)的“可解釋性”。但是,可解釋性究竟意味著什么呢?

Been Kim:可解釋性擁有兩大分支。第一大分支是對(duì)科學(xué)的可解釋性:如果你將神經(jīng)網(wǎng)絡(luò)視為研究對(duì)象,那么就可以通過科學(xué)實(shí)驗(yàn)以真正理解關(guān)于模型的一切細(xì)節(jié)——例如其如何做出反應(yīng),諸如此類。

可解釋性的第二大分支,也就是我一直主要關(guān)注的方向——對(duì)負(fù)責(zé)任人工智能的解釋能力。我們不需要了解模型中的所有細(xì)節(jié),但必須通過理解來確定我們能夠以安全的方式使用這種工具,這也正是我們?cè)O(shè)定的目標(biāo)。

問:那么您要如何對(duì)一套不完全了解其運(yùn)作方式的系統(tǒng)建立信心?

Been Kim:這里我想打個(gè)比方。假設(shè)我的后院有一棵樹,我想把它砍掉,讓院子看起來清爽一點(diǎn)。我可能擁有一把能夠搞定這項(xiàng)工作的鏈鋸。目前,我還不完全了解鏈鋸的工作原理,但產(chǎn)品手冊(cè)上提到:“請(qǐng)注意以下事項(xiàng),以防用戶削到手指?!币虼烁鶕?jù)這本手冊(cè)的說明,我更傾向于使用電鈕而非手鋸,因?yàn)殡m然后者上手難度更低,但我可能得花上5個(gè)小時(shí)才能完成砍樹任務(wù)。

也就是說,你能夠理解“砍樹”是什么意思;如此一來,即使你并不很明白鏈鋸的工作原理,也能夠利用它實(shí)現(xiàn)這一目標(biāo)。

沒錯(cuò),可解釋性中第二大分支的目標(biāo)就是:我們是否能夠充分理解一種工具,從而以安全的方式加以使用?我們可以將確定有效的人類知識(shí)反映到工具當(dāng)中,進(jìn)而建立起這種理解。

問:那么,“反映人類知識(shí)”的方式是如何讓黑匣子AI這類系統(tǒng)具備可理解性的?

Been Kim:下面我想列舉另一個(gè)例子。如果醫(yī)生使用機(jī)器學(xué)習(xí)模型進(jìn)行癌癥診斷,那么醫(yī)生本人肯定希望確保模型當(dāng)中不存在那些來自我們不希望使用的數(shù)據(jù)的某些隨機(jī)相關(guān)性。要保障這樣的要求,一種可行的方法就是,確定機(jī)器學(xué)習(xí)模型正在以與人類醫(yī)生類似的方式執(zhí)行診斷流程。換句話說,也就是將醫(yī)生自己的診斷知識(shí)反映在這套機(jī)器學(xué)習(xí)模型當(dāng)中。

因此,如果醫(yī)生們會(huì)研究細(xì)胞樣本以診斷癌癥,他們可能會(huì)在樣本當(dāng)中尋找一種被稱為“融合腺體”的東西。此外,他們可能也會(huì)考慮到患者的年齡,以及患者過去是否擁有過化療經(jīng)歷等等。這些因素正是醫(yī)生在嘗試診斷癌癥時(shí)所關(guān)心的因素或者概念。如果我們能夠證明機(jī)器學(xué)習(xí)模型也在關(guān)注這些因素,那么該模型的可理解性將顯著提升,因?yàn)槠浯_實(shí)反映出與醫(yī)生相符的人類知識(shí)運(yùn)用行為。

12下一頁>

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2019-01-16
Google Brain新成果:一個(gè)能夠理解機(jī)器思維方式的AI翻譯器
如果一名醫(yī)生告知要進(jìn)行手術(shù),人們肯定首先希望了解為什么——即便對(duì)方不具備任何專業(yè)的醫(yī)學(xué)知識(shí),醫(yī)生明確解釋診斷理由仍然極其必要。而人工智能也一樣。

長按掃碼 閱讀全文