人工智能之深度強(qiáng)化學(xué)習(xí)DRL

前言:人工智能機(jī)器學(xué)習(xí)有關(guān)算法內(nèi)容,人工智能之機(jī)器學(xué)習(xí)主要有三大類:1)分類;2)回歸;3)聚類。今天我們重點(diǎn)探討一下深度強(qiáng)化學(xué)習(xí)。

之前介紹過(guò)深度學(xué)習(xí)DL強(qiáng)化學(xué)習(xí)RL,那么人們不禁會(huì)問(wèn)會(huì)不會(huì)有深度強(qiáng)化學(xué)習(xí)DRL呢? 答案是Exactly!

我們先回顧一下深度學(xué)習(xí)DL和強(qiáng)化學(xué)習(xí)RL。

深度學(xué)習(xí)DL是機(jī)器學(xué)習(xí)中一種基于對(duì)數(shù)據(jù)進(jìn)行表征學(xué)習(xí)的方法。深度學(xué)習(xí)DL有監(jiān)督和非監(jiān)督之分,都已經(jīng)得到廣泛的研究和應(yīng)用。

強(qiáng)化學(xué)習(xí)RL是通過(guò)對(duì)未知環(huán)境一邊探索一邊建立環(huán)境模型以及學(xué)習(xí)得到一個(gè)最優(yōu)策略。強(qiáng)化學(xué)習(xí)是機(jī)器學(xué)習(xí)中一種快速、高效且不可替代的學(xué)習(xí)算法。

然后今天我們重點(diǎn)跟跟大家一起探討一下深度強(qiáng)化學(xué)習(xí)DRL

深度強(qiáng)化學(xué)習(xí)DRL自提出以來(lái), 已在理論應(yīng)用方面均取得了顯著的成果。尤其是谷歌DeepMind團(tuán)隊(duì)基于深度強(qiáng)化學(xué)習(xí)DRL研發(fā)的AlphaGo,將深度強(qiáng)化學(xué)習(xí)DRL成推上新的熱點(diǎn)高度,成為人工智能歷史上一個(gè)新的里程碑。因此,深度強(qiáng)化學(xué)習(xí)DRL非常值得研究。

深度強(qiáng)化學(xué)習(xí)概念:

深度強(qiáng)化學(xué)習(xí)DRL將深度學(xué)習(xí)DL的感知能力和強(qiáng)化學(xué)習(xí)RL的決策能力結(jié)合, 可以直接根據(jù)輸入的信息進(jìn)行控制,是一種更接近人類思維方式人工智能方法。

在與世界的正?;?dòng)過(guò)程中,強(qiáng)化學(xué)習(xí)會(huì)通過(guò)試錯(cuò)法利用獎(jiǎng)勵(lì)來(lái)學(xué)習(xí)。它跟自然學(xué)習(xí)過(guò)程非常相似,而與深度學(xué)習(xí)不同。在強(qiáng)化學(xué)習(xí)中,可以用較少的訓(xùn)練信息,這樣做的優(yōu)勢(shì)是信息更充足,而且不受監(jiān)督者技能限制。

深度強(qiáng)化學(xué)習(xí)DRL是深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的結(jié)合。這兩種學(xué)習(xí)方式在很大程度上是正交問(wèn)題,二者結(jié)合得很好。強(qiáng)化學(xué)習(xí)定義了優(yōu)化的目標(biāo),深度學(xué)習(xí)給出了運(yùn)行機(jī)制——表征問(wèn)題的方式以及解決問(wèn)題的方式。將強(qiáng)化學(xué)習(xí)和深度學(xué)習(xí)結(jié)合在一起,尋求一個(gè)能夠解決任何人類級(jí)別任務(wù)的代理,得到了能夠解決很多復(fù)雜問(wèn)題的一種能力——通用智能。深度強(qiáng)化學(xué)習(xí)DRL將有助于革新AI領(lǐng)域,它是朝向構(gòu)建對(duì)視覺(jué)世界擁有更高級(jí)理解的自主系統(tǒng)邁出的一步。從某種意義上講,深度強(qiáng)化學(xué)習(xí)DRL是人工智能的未來(lái)。

深度強(qiáng)化學(xué)習(xí)本質(zhì):

深度強(qiáng)化學(xué)習(xí)DRL的Autonomous Agent使用強(qiáng)化學(xué)習(xí)的試錯(cuò)算法和累計(jì)獎(jiǎng)勵(lì)函數(shù)來(lái)加速神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)。這些設(shè)計(jì)為很多依靠監(jiān)督/無(wú)監(jiān)督學(xué)習(xí)的人工智能應(yīng)用提供支持。它涉及對(duì)強(qiáng)化學(xué)習(xí)驅(qū)動(dòng)Autonomous Agent的使用,以快速探索與無(wú)數(shù)體系結(jié)構(gòu)、節(jié)點(diǎn)類型、連接、超參數(shù)設(shè)置相關(guān)的性能權(quán)衡,以及對(duì)深度學(xué)習(xí)、機(jī)器學(xué)習(xí)和其他人工智能模型設(shè)計(jì)人員可用的其它選擇。

深度強(qiáng)化學(xué)習(xí)原理:

深度Q網(wǎng)絡(luò)通過(guò)使用深度學(xué)習(xí)DL和強(qiáng)化學(xué)習(xí)RL兩種技術(shù),來(lái)解決在強(qiáng)化學(xué)習(xí)RL中使用函數(shù)逼近的基本不穩(wěn)定性問(wèn)題:經(jīng)驗(yàn)重放目標(biāo)網(wǎng)絡(luò)。經(jīng)驗(yàn)重放使得強(qiáng)化學(xué)習(xí)RL智能體能夠從先前觀察到的數(shù)據(jù)離線進(jìn)行抽樣和訓(xùn)練。這不僅大大減少了環(huán)境所需的交互量,而且可以對(duì)一批經(jīng)驗(yàn)進(jìn)行抽樣,減少學(xué)習(xí)更新的差異。此外,通過(guò)從大存儲(chǔ)器均勻采樣,可能對(duì)強(qiáng)化學(xué)習(xí)RL算法產(chǎn)生不利影響的時(shí)間相關(guān)性被打破了。最后,從實(shí)際的角度看,可以通過(guò)現(xiàn)代硬件并行地高效地處理批量的數(shù)據(jù),從而提高吞吐量

Q學(xué)習(xí)的核心思想就是通過(guò)Bellman方程來(lái)迭代求解Q函數(shù)。

損失函數(shù)

Q值更新:

1)使用當(dāng)前的狀態(tài)s通過(guò)神經(jīng)網(wǎng)絡(luò)計(jì)算出所有動(dòng)作的Q值

2)使用下一個(gè)狀態(tài)s’通過(guò)神經(jīng)網(wǎng)絡(luò)計(jì)算出 Q(s’, a’),并獲取最大值max a’ Q(s’, a’)

3)將該動(dòng)作a的目標(biāo)Q值設(shè)為 r + γmax a’ Q(s’, a’),對(duì)于其他動(dòng)作,把目標(biāo)Q值設(shè)為第1步返回的Q值,使誤差為0

4)使用反向傳播來(lái)更新Q網(wǎng)絡(luò)權(quán)重。

帶有經(jīng)驗(yàn)回放的深度Q學(xué)習(xí)算法如下:

注:

1)經(jīng)驗(yàn)回放會(huì)使訓(xùn)練任務(wù)更近似于通常的監(jiān)督式學(xué)習(xí),從而簡(jiǎn)化了算法的調(diào)式和測(cè)試。

2)深度Q網(wǎng)絡(luò)之后,有好多關(guān)于 DQN 的改進(jìn)。比如雙深度 Q 網(wǎng)絡(luò)(DoubleDQN),確定優(yōu)先級(jí)的經(jīng)歷回放和決斗網(wǎng)絡(luò)(Dueling Network)等。

策略搜索方法通過(guò)無(wú)梯度或梯度方法直接查找策略。無(wú)梯度的策略搜索算法可以選擇遺傳算法。遺傳方法依賴于評(píng)估一組智能體的表現(xiàn)。因此,對(duì)于具有許多參數(shù)的一大群智能體來(lái)說(shuō)遺傳算法的使用成本很高。然而,作為黑盒優(yōu)化方法,它們可以用于優(yōu)化任意的不可微分的模型,并且天然能夠在參數(shù)空間中進(jìn)行更多的探索。結(jié)合神經(jīng)網(wǎng)絡(luò)權(quán)重的壓縮表示,遺傳算法甚至可以用于訓(xùn)練大型網(wǎng)絡(luò);這種技術(shù)也帶來(lái)了第一個(gè)直接從高維視覺(jué)輸入學(xué)習(xí)RL任務(wù)的深度神經(jīng)網(wǎng)絡(luò)。

深度策略網(wǎng)絡(luò)

策略梯度

Actor-Critic算法將策略搜索方法的優(yōu)點(diǎn)與學(xué)習(xí)到的價(jià)值函數(shù)結(jié)合起來(lái),從而能夠從TD錯(cuò)誤中學(xué)習(xí),近來(lái)很受歡迎。

異步優(yōu)勢(shì)Actor Critic 算法(A3C)結(jié)合 Policy 和 Value Function 的產(chǎn)物。

確定策略梯度(Deterministic Policy Gradient)算法

虛擬自我對(duì)抗 (FSP)

深度強(qiáng)化學(xué)習(xí)挑戰(zhàn):

目前深度強(qiáng)化學(xué)習(xí)研究領(lǐng)域仍然存在著挑戰(zhàn)。

1)提高數(shù)據(jù)有效性方面;

2)算法探索性和開(kāi)發(fā)性平衡方面;

3)處理層次化強(qiáng)化學(xué)習(xí)方面;

4)利用其它系統(tǒng)控制器的學(xué)習(xí)軌跡來(lái)引導(dǎo)學(xué)習(xí)過(guò)程;

5)評(píng)估深度強(qiáng)化學(xué)習(xí)效果;

6)多主體強(qiáng)化學(xué)習(xí);

7)遷移學(xué)習(xí);

8)深度強(qiáng)化學(xué)習(xí)基準(zhǔn)測(cè)試。

。。。。。。

深度強(qiáng)化學(xué)習(xí)應(yīng)用:

深度強(qiáng)化學(xué)習(xí)DRL應(yīng)用范圍較廣,靈活性很大,擴(kuò)展性很強(qiáng)。它在圖像處理、游戲、機(jī)器人、無(wú)人駕駛及系統(tǒng)控制等領(lǐng)域得到越來(lái)越廣泛的應(yīng)用。

深度強(qiáng)化學(xué)習(xí)DRL算法已被應(yīng)用于各種各樣的問(wèn)題,例如機(jī)器人技術(shù),創(chuàng)建能夠進(jìn)行元學(xué)習(xí)(“學(xué)會(huì)學(xué)習(xí)”learning to learn)的智能體,這種智能體能泛化處理以前從未見(jiàn)過(guò)的復(fù)雜視覺(jué)環(huán)境。

結(jié)語(yǔ):

強(qiáng)化學(xué)習(xí)和深度學(xué)習(xí)是兩種技術(shù),但是深度學(xué)習(xí)可以用到強(qiáng)化學(xué)習(xí)上,叫做深度強(qiáng)化學(xué)習(xí)DRL。深度學(xué)習(xí)不僅能夠?yàn)閺?qiáng)化學(xué)習(xí)帶來(lái)端到端優(yōu)化的便利,而且使得強(qiáng)化學(xué)習(xí)不再受限于低維的空間中,極大地拓展了強(qiáng)化學(xué)習(xí)的使用范圍。深度強(qiáng)化學(xué)習(xí)DRL自提出以來(lái), 已在理論和應(yīng)用方面均取得了顯著的成果。尤其是谷歌DeepMind團(tuán)隊(duì)基于深度強(qiáng)化學(xué)習(xí)DRL研發(fā)的AlphaGo,將深度強(qiáng)化學(xué)習(xí)DRL成推上新的熱點(diǎn)和高度,成為人工智能歷史上一個(gè)新的里程碑。因此,深度強(qiáng)化學(xué)習(xí)DRL很值得大家研究。深度強(qiáng)化學(xué)習(xí)將有助于革新AI領(lǐng)域,它是朝向構(gòu)建對(duì)視覺(jué)世界擁有更高級(jí)理解的自主系統(tǒng)邁出的一步。難怪谷歌DeepMind中深度強(qiáng)化學(xué)習(xí)領(lǐng)頭人David Silver曾經(jīng)說(shuō)過(guò),深度學(xué)習(xí)(DL) + 強(qiáng)化學(xué)習(xí)(RL) = 深度強(qiáng)化學(xué)習(xí)DRL=人工智能(AI)。深度強(qiáng)化學(xué)習(xí)應(yīng)用范圍較廣,靈活性很大,擴(kuò)展性很強(qiáng)。它在圖像處理、游戲、機(jī)器人、無(wú)人駕駛及系統(tǒng)控制等領(lǐng)域得到越來(lái)越廣泛的應(yīng)用。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )

贊助商
2018-06-19
人工智能之深度強(qiáng)化學(xué)習(xí)DRL
前言:人工智能機(jī)器學(xué)習(xí)有關(guān)算法內(nèi)容,人工智能之機(jī)器學(xué)習(xí)主要有三大類:1)分類;2)回歸;3)聚類。今天我們重點(diǎn)探討一下深度強(qiáng)化學(xué)習(xí)。

長(zhǎng)按掃碼 閱讀全文