資源描述:
《有關(guān)強化學(xué)習(xí)的若干問題研究》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。
1、摘要摘要強化學(xué)習(xí)是機器學(xué)習(xí)領(lǐng)域中的一個重要研究方向。強化學(xué)習(xí)系統(tǒng)通過對環(huán)境反復(fù)試探的方式,學(xué)習(xí)環(huán)境狀態(tài)到可執(zhí)行動作的最優(yōu)反應(yīng)式映射策略,以獲取最大回報。相比于其它學(xué)習(xí)技術(shù),強化學(xué)習(xí)的顯著優(yōu)勢在于它對先驗知識的完備程度幾乎沒有要求,甚至在環(huán)境信息完全未知的情況下,強化學(xué)習(xí)仍具有較好的自適應(yīng)性和魯棒性?,F(xiàn)實世界中,大多數(shù)的學(xué)習(xí)問題都具有狀態(tài)空間或動作空間連續(xù)、任務(wù)描述難、目標(biāo)性能不唯一的特點,且對學(xué)習(xí)算法的實時性和自適應(yīng)能力有較高的要求。因此,為了拓展強化學(xué)習(xí)的應(yīng)用范圍,本文在如何提高學(xué)習(xí)速度和學(xué)習(xí)效率、如何進行合理的任務(wù)描述以及如何考慮多個性能指標(biāo)的問題上,對強化學(xué)習(xí)進行了較
2、系統(tǒng)的研究。系統(tǒng)地介紹了一種經(jīng)典強化學(xué)習(xí)算法——勺學(xué)習(xí)算法的基本原理、主要步驟和存在的問題,并研究了它與其它幾種常用機器學(xué)習(xí)技術(shù)的組合。研究了強化學(xué)習(xí)方法中的經(jīng)驗存儲和利用問題。在分析了已有的幾種有效的、相對獨立的經(jīng)驗存儲和利用方法的基礎(chǔ)上,研究了一種將它們有機結(jié)合在一起的強化學(xué)習(xí)算法,并根據(jù)學(xué)習(xí)狀態(tài)對時間的變化特性,對這種結(jié)合算法進行了改進,以提高學(xué)習(xí)經(jīng)驗的利用率,從而提高了算法的學(xué)習(xí)性能。研究了強化學(xué)習(xí)中的狀態(tài)空間壓縮技術(shù)。分別針對離散化的狀態(tài)空間和連續(xù)狀態(tài)空間的壓縮問題,提出了基于信息熵的強化學(xué)習(xí)算法和基于自主生成神經(jīng)網(wǎng)絡(luò)函數(shù)逼近器的強化學(xué)習(xí)算法。前者利用對狀態(tài)與目標(biāo)
3、之間的相關(guān)程度的度量,可以進一步壓縮離散化的狀態(tài)空間;后者利用進化算法的全局搜索能力來得到合適的函數(shù)逼近器結(jié)構(gòu)和參數(shù),可以減輕對神經(jīng)網(wǎng)絡(luò)函數(shù)逼近器的決策負(fù)擔(dān)。二者均可以起到節(jié)約存儲資源和計算資源,從而提高學(xué)習(xí)效率的目的。研究了多目標(biāo)強化學(xué)習(xí)方法。針對目標(biāo)間的不可公度性問題,提出了一種基于模糊推理的多目標(biāo)強化學(xué)習(xí)算法。引入決策者對目標(biāo)的偏好信息,并結(jié)合模糊推理系統(tǒng),為多目標(biāo)下兩個動作決策之問的優(yōu)劣比較提供了尺度,并為算法指明了學(xué)習(xí)方向。關(guān)鍵詞:強化學(xué)習(xí),Q學(xué)習(xí),狀態(tài)空間,函數(shù)逼近,多目標(biāo)AbstractReinforcementlearningisallimportantma
4、chinelearningmethod.Forgainingmaximumreturn,reinforcementlearningsystemcalllearntheoptimalmappingpolicythroughrepeatedlyinteractwithenvironment.Comparedtotheotherlearningtechnologies,themostremarkableadvantageisthatitcanlearnwithoutanypriorknowledgeabouttheenvironment.Especiallyinunknownen
5、vironment,reinforcementlearningcanalsokeepwelladaptabilityandrobustness.Inrealworld,somelearningproblemshavesuccessivestatespaceandactionspace.Somearedifficulttobemodeledandsomehavenotonlyoneobjectives,etc.Atthes鋤etime.theyrequirequicklearningspeedandgoodadaptability.Therefore,forexpanding
6、applicationfield,thisthesismadesystematicallyresearchonreinforcementlearningandthepfimarysolutionsofsomeexistingproblemsarepresented.Thebasicidea,maystepsandexistingproblemsofreinforcementle砒_11ing扣.eintroducedbasedonaclassicalreinforcementlearningalgorithm-------Q-learningalgorithm.Theexp
7、eriencestorageandexploitationinreinforcementlearningaleresearched.Basedontheanalyticalonthreeexistingexperiencestoragemethods,aneweombinativememodisresearched.Followingthedynamiccharacter,combinativemethodhasbeenimprovedforenhanceutilizationrateofexperienceand