谷歌機(jī)器學(xué)習(xí)進(jìn)展:讓電腦一句話描述圖片內(nèi)容

看著上面的圖片人類可以很容易的描述出“這是一個(gè)正在騎摩托車的人”、“三條狗在草地上奔跑”,但如果想讓電腦“看”完圖片之后能自動給出一段這樣的概述就不是一件容易事了,而現(xiàn)在Google卻已經(jīng)做到了。

按照Google的說法,通過自行開發(fā)的機(jī)器學(xué)習(xí)系統(tǒng),它們現(xiàn)在已經(jīng)可以用自動化的方式來為圖片添加自然語言描述。這項(xiàng)技術(shù)不但有望讓那些對顏色不敏感的人群可以快速理解圖片中的內(nèi)容,也可以在網(wǎng)絡(luò)狀況不好的情況下用文本來暫時(shí)替代圖片顯示;當(dāng)然,更重要的是它還可以讓Google的圖片搜索功能更強(qiáng)大。

在以前,業(yè)界在用計(jì)算機(jī)對圖片進(jìn)行自然語言描述時(shí)基本使用的都是計(jì)算機(jī)視覺和自然語言處理技術(shù);但現(xiàn)在得益于機(jī)器翻譯技術(shù)的進(jìn)步,通過遞歸神經(jīng)網(wǎng)絡(luò)(RNN)轉(zhuǎn)換,機(jī)器可以先把法語轉(zhuǎn)換成一個(gè)矢量,接著另外一個(gè)RNN用戶就可以通過這個(gè)矢量把法語轉(zhuǎn)換成德語;這樣Google只要能用另外一種具備圖片識別能力的神經(jīng)網(wǎng)絡(luò)(卷積神經(jīng)網(wǎng)絡(luò),CNN)替換掉第一個(gè)RNN就可以得到一句能描述圖片的自然語言了。

所以整個(gè)自然語言的生成過程就是由讀取視覺的神經(jīng)網(wǎng)絡(luò)CNN到產(chǎn)生語言的神經(jīng)網(wǎng)絡(luò)RNN,進(jìn)而最終得到一句自然語言。Google方面的測試顯示,這項(xiàng)技術(shù)的整體效果表現(xiàn)還不錯(cuò)。當(dāng)然,我們從第一張圖中也可以看到這其中是會出現(xiàn)一些小錯(cuò)誤甚至完全不準(zhǔn)確的情況,不過隨著數(shù)據(jù)集的增加和成熟,整體的精確度會越來越高。

其實(shí),早在今年6月份時(shí),Google就發(fā)過一篇博客闡述它們是如何讓用戶可以根據(jù)圖片中的內(nèi)容來搜索;在9月份時(shí),Google又更新了它們在圖像中物體識別、分類和標(biāo)記方面的進(jìn)展。如今到了11月,Google在這方面的技術(shù)又有了新的突破。不難看出,最終機(jī)器將會更了解圖片,而人們也會更容易找到自己想要的圖片。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2014-11-19
谷歌機(jī)器學(xué)習(xí)進(jìn)展:讓電腦一句話描述圖片內(nèi)容
按照Google的說法,通過自行開發(fā)的機(jī)器學(xué)習(xí)系統(tǒng),它們現(xiàn)在已經(jīng)可以用自動化的方式來為圖片添加自然語言描述。

長按掃碼 閱讀全文