柯潔評(píng)價(jià)新版本AlphaGo問世:人類太多余了

柯潔回應(yīng)新版本AlphaGo問世:人類太多余了

10月19日消息,DeepMind今天發(fā)布了一款新版本的AlphaGo程序,經(jīng)過三天的訓(xùn)練,該系統(tǒng)能夠擊敗AlphaGo Lee,后者是去年擊敗了韓國(guó)選手李世石(Lee Sedol)的DeepMind軟件,勝率是100比0。經(jīng)過大約40天的訓(xùn)練(約2900萬場(chǎng)自玩游戲),AlphaGo Zero擊敗了AlphaGo Master(今年早些時(shí)候擊敗了世界冠軍柯潔)。

對(duì)此,柯潔回應(yīng)稱:“一個(gè)純凈、純粹自我學(xué)習(xí)的alphago是最強(qiáng)的...對(duì)于alphago的自我進(jìn)步來講...人類太多余了。”

相關(guān)閱讀:

阿爾法狗之父:AlphaGo Zero 3天走完千年棋史

DeepMind公布最強(qiáng)阿爾法狗:AlphaGo Zero(來源:網(wǎng)易科技頻道)

澎湃新聞?dòng)浾?虞涵棋 王心馨

倫敦當(dāng)?shù)貢r(shí)間10月18日18:00(北京時(shí)間19日01:00),谷歌旗下的DeepMind團(tuán)隊(duì)公布了進(jìn)化后的最強(qiáng)版AlphaGo ,代號(hào)AlphaGo Zero。

新版本的AlphaGo究竟有多厲害?打敗李世石的AlphaGo用了3000萬盤比賽作為訓(xùn)練數(shù)據(jù),AlphaGo Zero用了490萬盤比賽數(shù)據(jù)。經(jīng)過3天的訓(xùn)練,AlphaGo Zero就以100:0的比分完勝對(duì)陣?yán)钍朗哪前鍭lphaGo。

DeepMind聯(lián)合創(chuàng)始人兼CEO 、AlphaGo之父戴密斯·哈薩比斯(Demis Hassabis)和AlphaGo團(tuán)隊(duì)負(fù)責(zé)人大衛(wèi)·席爾瓦(Dave Sliver) 等人同時(shí)在官方博客上發(fā)表文章,詳解最強(qiáng)版本阿爾法狗是如何煉成的,與前代有何不同。

阿爾法狗之父:AlphaGo Zero 3天走完人類千年棋史

哈薩比斯

與學(xué)習(xí)大量人類棋譜起步的前代AlphaGo不同,AlphaGo Zero是從“嬰兒般的白紙”開始,通過3天數(shù)百萬盤自我對(duì)弈,走完了人類千年的圍棋歷史,并探索出了不少橫空出世的招法。

哈薩比斯等人專文:《AlphaGo Zero:從零開始》

阿爾法狗之父:AlphaGo Zero 3天走完人類千年棋史

席爾瓦在烏鎮(zhèn)人機(jī)峰會(huì)上發(fā)言

從語音識(shí)別、圖像分類到基因和藥物研究,人工智能發(fā)展迅速。這些專家系統(tǒng),很多是借用海量人類經(jīng)驗(yàn)和數(shù)據(jù)開發(fā)出來的。

然而,在有些特定問題上,人類的知識(shí)要么過于昂貴,要么不靠譜,要么無法獲得。因此,人工智能研究的一個(gè)長(zhǎng)期目標(biāo)就是跳過這一步,創(chuàng)造能在最有挑戰(zhàn)性的領(lǐng)域,不用人類輸入就達(dá)到超人水平的算法。我們發(fā)表在《自然》期刊上的最新論文,展示了實(shí)現(xiàn)該目標(biāo)的關(guān)鍵一步。

論文介紹了首個(gè)戰(zhàn)勝人類圍棋冠軍的電腦程序AlphaGo的最新進(jìn)化版本:AlphaGo Zero。AlphaGo Zero更為強(qiáng)大,可以一爭(zhēng)史上最強(qiáng)圍棋手。

AlphaGo的前幾代版本,一開始用上千盤人類業(yè)余和專業(yè)棋手的棋譜進(jìn)行訓(xùn)練,學(xué)習(xí)如何下圍棋。AlphaGo Zero則跳過了這個(gè)步驟,自我對(duì)弈學(xué)習(xí)下棋,完全從亂下開始。用這種方法,它很快超過了人類水平,對(duì)陣此前戰(zhàn)勝人類冠軍李世石的前代AlphaGo取得了100連勝。

AlphaGo Zero之所以能當(dāng)自己的老師,是用了一種叫強(qiáng)化學(xué)習(xí)的新模式。系統(tǒng)從一個(gè)對(duì)圍棋一無所知的神經(jīng)網(wǎng)絡(luò)開始,將該神經(jīng)網(wǎng)絡(luò)和一個(gè)強(qiáng)力搜索算法結(jié)合,自我對(duì)弈。在對(duì)弈過程中,神經(jīng)網(wǎng)絡(luò)不斷調(diào)整、升級(jí),預(yù)測(cè)每一步落子和最終的勝利者。

升級(jí)后的神經(jīng)網(wǎng)絡(luò)與搜索網(wǎng)絡(luò)結(jié)合成一個(gè)更強(qiáng)的新版本AlphaGo Zero,如此往復(fù)循環(huán)。每過一輪,系統(tǒng)的表現(xiàn)就提高了一點(diǎn)點(diǎn),自我對(duì)弈的質(zhì)量也提高了一點(diǎn)點(diǎn)。神經(jīng)網(wǎng)絡(luò)越來越準(zhǔn)確,AlphaGo Zero的版本也越來越強(qiáng)。

這種技術(shù)比此前所有版本的AlphaGo都更為強(qiáng)大。這是因?yàn)椋辉偈艿饺祟愔R(shí)的限制,而能夠從嬰兒般的白紙狀態(tài),直接向世界上最強(qiáng)大的棋手——AlphaGo本身學(xué)起。

AlphaGo Zero相較前代還有幾點(diǎn)明顯的差別:

首先,AlphaGo Zero僅用棋盤上的黑白子作為輸入,而前代則包括了小部分人工設(shè)計(jì)的特征輸入。

其次,AlphaGo Zero僅用了單一的神經(jīng)網(wǎng)絡(luò)。在此前的版本中,AlphaGo用到了“策略網(wǎng)絡(luò)”來選擇下一步棋的走法,以及使用“價(jià)值網(wǎng)絡(luò)”來預(yù)測(cè)每一步棋后的贏家。而在新的版本中,這兩個(gè)神經(jīng)網(wǎng)絡(luò)合二為一,從而讓它能得到更高效的訓(xùn)練和評(píng)估。

第三,AlphaGo Zero并不使用快速、隨機(jī)的走子方法。在此前的版本中,AlphaGo用的是快速走子方法,來預(yù)測(cè)哪個(gè)玩家會(huì)從當(dāng)前的局面中贏得比賽。相反,新版本依靠的是其高質(zhì)量的神經(jīng)網(wǎng)絡(luò)來評(píng)估下棋的局勢(shì)。

所有這些差異,都提高了系統(tǒng)的表現(xiàn),使其更為普適。不過,是算法上的變化使得系統(tǒng)更為強(qiáng)大和高效。

僅僅自我對(duì)弈3天后,AlphaGo Zero就以100:0完勝了此前擊敗世界冠軍李世石的AlphaGo版本。自我對(duì)弈40天后,AlphaGo Zero變得更為強(qiáng)大,超過了此前擊敗當(dāng)今第一人柯潔的“大師”版AlphaGo。

通過數(shù)百萬次自我對(duì)弈,AlphaGo從零開始掌握了圍棋,在短短幾天內(nèi)就積累起了人類幾千年才有的知識(shí)。AlphaGo Zero也發(fā)現(xiàn)了新的知識(shí),發(fā)展出打破常規(guī)的策略和新招,與它在對(duì)戰(zhàn)李世石和柯潔時(shí)創(chuàng)造的那些交相輝映,卻又更勝一籌。

這些創(chuàng)造性的時(shí)刻給了我們信心:人工智能會(huì)成為人類智慧的增強(qiáng)器,幫助我們解決人類正在面臨的一些嚴(yán)峻挑戰(zhàn) 。

盡管才剛剛發(fā)展起來,AlphaGo Zero已經(jīng)走出了通向上述目標(biāo)的關(guān)鍵一步。如果類似的技術(shù)可以應(yīng)用在其他結(jié)構(gòu)性問題,比如蛋白質(zhì)折疊、減少能耗和尋找新材料上,就能創(chuàng)造出有益于社會(huì)的突破。

柯潔回應(yīng)新版本AlphaGo問世:人類太多余了

10月19日消息,DeepMind今天發(fā)布了一款新版本的AlphaGo程序,經(jīng)過三天的訓(xùn)練,該系統(tǒng)能夠擊敗AlphaGo Lee,后者是去年擊敗了韓國(guó)選手李世石(Lee Sedol)的DeepMind軟件,勝率是100比0。經(jīng)過大約40天的訓(xùn)練(約2900萬場(chǎng)自玩游戲),AlphaGo Zero擊敗了AlphaGo Master(今年早些時(shí)候擊敗了世界冠軍柯潔)。

對(duì)此,柯潔回應(yīng)稱:“一個(gè)純凈、純粹自我學(xué)習(xí)的alphago是最強(qiáng)的...對(duì)于alphago的自我進(jìn)步來講...人類太多余了。”

相關(guān)閱讀:

阿爾法狗之父:AlphaGo Zero 3天走完千年棋史

DeepMind公布最強(qiáng)阿爾法狗:AlphaGo Zero(來源:網(wǎng)易科技頻道)

澎湃新聞?dòng)浾?虞涵棋 王心馨

倫敦當(dāng)?shù)貢r(shí)間10月18日18:00(北京時(shí)間19日01:00),谷歌旗下的DeepMind團(tuán)隊(duì)公布了進(jìn)化后的最強(qiáng)版AlphaGo ,代號(hào)AlphaGo Zero。

新版本的AlphaGo究竟有多厲害?打敗李世石的AlphaGo用了3000萬盤比賽作為訓(xùn)練數(shù)據(jù),AlphaGo Zero用了490萬盤比賽數(shù)據(jù)。經(jīng)過3天的訓(xùn)練,AlphaGo Zero就以100:0的比分完勝對(duì)陣?yán)钍朗哪前鍭lphaGo。

DeepMind聯(lián)合創(chuàng)始人兼CEO 、AlphaGo之父戴密斯·哈薩比斯(Demis Hassabis)和AlphaGo團(tuán)隊(duì)負(fù)責(zé)人大衛(wèi)·席爾瓦(Dave Sliver) 等人同時(shí)在官方博客上發(fā)表文章,詳解最強(qiáng)版本阿爾法狗是如何煉成的,與前代有何不同。

阿爾法狗之父:AlphaGo Zero 3天走完人類千年棋史

哈薩比斯

與學(xué)習(xí)大量人類棋譜起步的前代AlphaGo不同,AlphaGo Zero是從“嬰兒般的白紙”開始,通過3天數(shù)百萬盤自我對(duì)弈,走完了人類千年的圍棋歷史,并探索出了不少橫空出世的招法。

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2017-10-20
柯潔評(píng)價(jià)新版本AlphaGo問世:人類太多余了
DeepMind今天發(fā)布了一款新版本的AlphaGo程序,經(jīng)過三天的訓(xùn)練,該系統(tǒng)能夠擊敗AlphaGo Lee,后者是去年擊敗了韓國(guó)選手李世石(Lee Sedo

長(zhǎng)按掃碼 閱讀全文