真不是愚人節(jié)新聞:使用下意識時的你,與AI無異

原標題:真不是愚人節(jié)新聞:使用下意識時的你,與AI無異

在今天這個人人都有可能被愚弄的日子,不如我們來換換戲耍的對象,看看機器有沒有可能被愚弄欺騙呢?

在人工智能五十年的研發(fā)過程中,我們一直在不斷嘗試著讓機器理解人對于世界的認知方式。不管是一直沒有實現(xiàn)較大突破的類腦計算,還是模仿人類感知外界機制的人工神經(jīng)網(wǎng)絡(luò),本質(zhì)上都是對人類行為方式的多種模仿。

當(dāng)然我們也知道,這些模仿雖然在應(yīng)用上取得突破,但本質(zhì)上來看與人類的認知方式還是大相徑庭的。

就拿視覺來說,人類對于萬事萬物的認知來自于綜合的感知。以前一陣社交媒體上瘋傳的《神奇寶貝》大電影來說,人們見到3D版皮卡丘非常驚訝——皮卡丘竟然是有毛的?

其實這就體現(xiàn)了人類非常有趣的一點,建立在綜合知識基礎(chǔ)之上,人類的五感是相通的,因此可以從有限的信息里進行關(guān)聯(lián)挖掘,對陌生的事物建立起認知。

當(dāng)我們簡單皮卡丘身上茸毛時,我們立刻聯(lián)想起了那種毛茸茸的手感,認為它像一只大老鼠毫不可愛。

被隨意愚弄的機器思維

相比之下機器視覺的認知方式就相對孤立,建立分類器后組織層層的神經(jīng)網(wǎng)絡(luò),對圖片進行分層處理,分別去辨認圖片中是不是一架橋,是不是一只猴子,是不是一棵大樹。最后得出的結(jié)論是,這張圖片97%的幾率是一架橋,2%的幾率是一只猴子,1%的幾率是一棵大樹。

對于人類來說,我們可能把猴子看成猩猩,原因是我們自己腦海中的底層知識不足,在認知中分不清猩猩和猴子的概念。但絕不會把橋、猴子、大樹這些風(fēng)馬牛不相及的東西混淆一談。

但對于機器視覺就不一樣了,在機器的“眼中”,一切圖像都是像素點的排列組合。對于我們來說,猴子和大樹的區(qū)別是哺乳動物和區(qū)別??蓪τ跈C器來說,猴子和大樹之間只有一個數(shù)字分割線而已。

這就導(dǎo)致了機器視覺可以被“針對性”的愚弄,讓圖像識別輸出完全錯誤的結(jié)果,這就是我們常說的對抗生成樣本。

例如將一張圖片的像素點進行輕微的移動,在人眼中兩張圖片沒有任何區(qū)別,可在機器識別邏輯下,卻可能讓機器把猴子認成大樹。

又比如我們曾經(jīng)介紹過的“迷幻貼紙”——將某一種物體的分類特征高度濃縮成一個很小圖案,“粘貼”在其他圖片上。圖像識別對于結(jié)果的輸出,是基于幾項結(jié)果比率的高低。在貼上貼紙之前,圖像識別可能明確的分析出圖片有98%幾率的是一只猴子。但粘貼上高度濃縮特征的貼紙之后,就能立刻改變圖像識別的結(jié)果。

讓人類理解機器思維,或許比想象中更容易

如此看來,雖然機器一直在嘗試模仿人類的思維方式,但最終結(jié)果還是我們與機器之間彼此無法理解。

那么如果換個角度,讓人類去學(xué)習(xí)機器的思維方式呢?

近期約翰霍普金斯大學(xué)就做了這樣一項實驗。

為了弄明白為什么機器能看到人類“看不到”的變化,約翰霍普金斯大學(xué)推出了一系列實驗,讓人類志愿者在圖片中找到“機器犯的錯誤”。

例如給志愿者一張噪點圖或看似無意義的花紋,讓人類志愿者從中識別辨認圖片更像哪一種物體,并將AI給出的結(jié)果混淆其中。又比如給人類幾個斑駁的數(shù)字圖案,讓人類志愿者選擇AI可能將圖案誤認成了什么錯誤的數(shù)字。

令人震驚的是,在大部分實驗中,人類志愿者都憑借著直覺很快辨認出了AI的思維模式。以上圖為例,有81%的人類志愿者都準確的發(fā)覺了機器會犯下的錯誤。在一共48個實驗1700位志愿者中,有人們在75%的時間里都選擇和機器一樣的答案,而只有2%的人從來沒有選擇過和機器一樣的答案。

這個驚人的實驗結(jié)果告訴我們,即使拋開人類基礎(chǔ)的認知邏輯,應(yīng)用下意識的第一反應(yīng),也能夠和機器得出相同的結(jié)果??磥砩窠?jīng)網(wǎng)絡(luò)黑箱中對于人類經(jīng)驗提煉的深度,或許遠超我們想象。

對抗對抗性圖像:當(dāng)人類開始理解機器

這個實驗的意義,當(dāng)然不是為了告訴大家其實我們都是機器人,而是教會了我們?nèi)绾螒?yīng)對機器視覺可能犯下的錯誤。

在機器視覺認知模式的固有弊端下,很可能會形成很多可供鉆空子的漏洞。例如當(dāng)自動駕駛識別公路上的交通標志時,一個小小貼紙就可能讓視覺系統(tǒng)產(chǎn)生錯覺,把交通標識識別成突然出現(xiàn)的行人來個急剎車。

為了解決這種可能出現(xiàn)的情況,通過理解機器思維并進行逆向拆解或許是個不錯的方法。

從實驗中我們可以看出,即使是毫無邏輯的圖案和紋理,人類也可以通過聯(lián)想能力對這些圖片進行更高級的認知和處理。實驗中人類和機器進入了同樣的情景,面對幾個分類選項做選擇題。而這種分類選擇或許就是讓機器陷入錯誤的關(guān)鍵。

另外一點則是,人類可以很清楚的識別出對抗性圖像。例如故意斑駁讓人難以辨認數(shù)字圖案,以及特征十分明顯的花哨貼紙。那么說明這些對抗性的圖案也擁有自己的“對抗性特征”。

雖然面對這種情況,最理想的方式是放棄卷積神經(jīng)網(wǎng)絡(luò),應(yīng)用認知計算真正讓人工智能建立在一個更完整的世界觀上進行識別。但在認知計算獲得突破之前,我們或許可以尋找一些替代性的解決方案。

例如我們可以在一些安防、自動駕駛等等關(guān)鍵場合之中,特意生成對抗性樣本讓人類進行標注,在汽車、行人這些常規(guī)分類中多出一個“對抗樣本”分類,讓卷積神經(jīng)網(wǎng)絡(luò)可以識別出來這些搗亂的圖案。

對于那種動幾個像素點就可以改變機器認知的情況,很有可能出現(xiàn)在數(shù)據(jù)流通途中的壓縮產(chǎn)生的失誤,我們可以尋找使得機器認知結(jié)果改變的壓縮規(guī)律,反向從源頭組織失誤的發(fā)生。

在愚人節(jié)這個日子里,發(fā)現(xiàn)“人類與機器有著十分相近的思維模式”這一新聞,聽起來似乎像個笑話。但或許我們引以為傲的“人類意識”,根本并沒有那么復(fù)雜,最終會與機器思維以一種出乎意料的方式相遇。

但在相遇之前,我們還是應(yīng)該用人類思維與機器人思維之間的相似性,來解決現(xiàn)實生活中的問題。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2019-04-01
真不是愚人節(jié)新聞:使用下意識時的你,與AI無異
相比之下機器視覺的認知方式就相對孤立,建立分類器后組織層層的神經(jīng)網(wǎng)絡(luò),對圖片進行分層處理,分別去辨認圖片中是不是一架橋,是不是一只猴子,是不是一棵大樹。

長按掃碼 閱讀全文