資源描述:
《基于支持向量機(jī)的分類算法研究》由會員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。
1、東北電力大學(xué)碩士學(xué)位論文基于支持向量機(jī)的分類算法研究姓名:李小英申請學(xué)位級別:碩士專業(yè):檢測技術(shù)與自動化裝置指導(dǎo)教師:門洪20080301摘要摘要傳統(tǒng)的模式識別方法在處理問題時通常需要建立準(zhǔn)確的數(shù)學(xué)模型,而且在解決菲線性問題時很難有好的表現(xiàn)。許多傳統(tǒng)統(tǒng)計學(xué)習(xí)方法都將基于樣本數(shù)目趨于無窮大時的漸近理論作為假設(shè),這些方法在實際應(yīng)用中,往往表現(xiàn)不盡人意。支持向量機(jī)在解決建立模型難,維數(shù)災(zāi)難方面有很好表現(xiàn),并且存小樣本數(shù)據(jù)中有良好應(yīng)用。正在成為繼模式識別和神經(jīng)網(wǎng)絡(luò)研究之后機(jī)器學(xué)習(xí)領(lǐng)域新的研究熱點(diǎn)。本文在統(tǒng)計學(xué)習(xí)理論基礎(chǔ)上深
2、入探討了支持向量機(jī)算法及其在分類中的應(yīng)用。分類實驗分三組進(jìn)行,選擇多項式和徑向基兩種核函數(shù)的支持向量機(jī)進(jìn)行分類仿真實驗研究。在分類實驗中,我們發(fā)現(xiàn)支持向量的數(shù)量遠(yuǎn)遠(yuǎn)小于樣本數(shù),這為我們解決大規(guī)模數(shù)據(jù)問題提供了方法。將訓(xùn)練樣本集分解成若干個小子集,按順序?qū)Ω髯蛹饌€訓(xùn)練學(xué)習(xí),避免了大規(guī)模數(shù)據(jù)計算的麻煩。實驗中采用不同規(guī)模的訓(xùn)練樣本集,從結(jié)果發(fā)現(xiàn)對于訓(xùn)練樣本較少的數(shù)據(jù)集,采用結(jié)構(gòu)簡單的學(xué)習(xí)函數(shù)會避免出現(xiàn)過學(xué)習(xí)現(xiàn)象;相反對于訓(xùn)練樣本較多的數(shù)據(jù)集,采用結(jié)構(gòu)簡單的學(xué)習(xí)函數(shù),會降低機(jī)器學(xué)習(xí)的推廣能力。在實驗中引進(jìn)懲罰因子C,允
3、許訓(xùn)練時錯分樣本的存在,適當(dāng)增大C的值,可以提高學(xué)習(xí)機(jī)的推廣能力。支持向量機(jī)在尋求最優(yōu)分類面的過程中,只涉及到內(nèi)積運(yùn)算,避免了維數(shù)災(zāi)難問題。由于在中等規(guī)模數(shù)據(jù)中,支持向量機(jī)的參數(shù)會影響到分類結(jié)果,為了得到最佳的分類精度,我們采用交叉驗證方法選擇參數(shù)值,結(jié)果表明,交叉驗證法選擇參數(shù)提高了實驗的平均測試準(zhǔn)確率。最后,把實驗仿真結(jié)果和神經(jīng)網(wǎng)絡(luò)算法結(jié)果相比較,結(jié)果表明支持向量機(jī)分類算法優(yōu)于神經(jīng)網(wǎng)絡(luò)算法。關(guān)鍵詞:支持向量機(jī);模式識另q;統(tǒng)計學(xué)理論;神經(jīng)網(wǎng)絡(luò)東北電力大學(xué)碩上學(xué)位論文AbstractThetraditionalp
4、atternrecognitionmethodsdealwiththeissuewimtheaccuratemodel.Itisalsodifficulttohaveagoodshowingagainstthenon—linearproblem.Thetraditionalstatisticallearningtheoryisasymptotictheorybasedonthenumberofthesampletendingtoinfinity.Practicalapplicationsofthesemethods
5、areoftenunsatisfactory.Thesupportvectormachineshavegooddisplaysinsolvingmodelingandthedimensiondisaster.Ithasalsothegoodapplicationinthesmallsamples。Itisbecominganewhotspotinthemachinelearningdomain.Thisthesisdiscussestheprincipleofthesupportvectormachineandit
6、sapplicationinclassification.Theexperimentsaredividedintothreegroupsandtwokindsofsupportvectormachinesforpolynomialkernelandradialbasisfunctionalechosentoexperimentbychangingtheparametervalues.Intheclassificationexperiment,wefindthatthenumberofthesupportvector
7、isfarlessthanthenumberofthetrainingsamplenumber.Thisprovidesthemethodforustosolvethelarge·scaledataproblembydividingtrainsamplesintoseveralsmallsubsetsandsequentiallytrainingsubsetsonebyone.Differentsizetrainingsamplesarechosenintheexperiments.Theresultsshowth
8、at,basedonstructuralriskminimizationprinciple,thelesstrainingsamples,usingsimplestructurelearningfunction,willbetoavoidaoverfittingphenomenon.Contrarytomoretrainingsamples,slightly