資源描述:
《基于支持向量機(jī)的分類(lèi)算法研究》由會(huì)員上傳分享,免費(fèi)在線(xiàn)閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫(kù)。
1、東北電力大學(xué)碩士學(xué)位論文基于支持向量機(jī)的分類(lèi)算法研究姓名:李小英申請(qǐng)學(xué)位級(jí)別:碩士專(zhuān)業(yè):檢測(cè)技術(shù)與自動(dòng)化裝置指導(dǎo)教師:門(mén)洪20080301摘要摘要傳統(tǒng)的模式識(shí)別方法在處理問(wèn)題時(shí)通常需要建立準(zhǔn)確的數(shù)學(xué)模型,而且在解決菲線(xiàn)性問(wèn)題時(shí)很難有好的表現(xiàn)。許多傳統(tǒng)統(tǒng)計(jì)學(xué)習(xí)方法都將基于樣本數(shù)目趨于無(wú)窮大時(shí)的漸近理論作為假設(shè),這些方法在實(shí)際應(yīng)用中,往往表現(xiàn)不盡人意。支持向量機(jī)在解決建立模型難,維數(shù)災(zāi)難方面有很好表現(xiàn),并且存小樣本數(shù)據(jù)中有良好應(yīng)用。正在成為繼模式識(shí)別和神經(jīng)網(wǎng)絡(luò)研究之后機(jī)器學(xué)習(xí)領(lǐng)域新的研究熱點(diǎn)。本文在統(tǒng)計(jì)學(xué)習(xí)理論基礎(chǔ)上深
2、入探討了支持向量機(jī)算法及其在分類(lèi)中的應(yīng)用。分類(lèi)實(shí)驗(yàn)分三組進(jìn)行,選擇多項(xiàng)式和徑向基兩種核函數(shù)的支持向量機(jī)進(jìn)行分類(lèi)仿真實(shí)驗(yàn)研究。在分類(lèi)實(shí)驗(yàn)中,我們發(fā)現(xiàn)支持向量的數(shù)量遠(yuǎn)遠(yuǎn)小于樣本數(shù),這為我們解決大規(guī)模數(shù)據(jù)問(wèn)題提供了方法。將訓(xùn)練樣本集分解成若干個(gè)小子集,按順序?qū)Ω髯蛹饌€(gè)訓(xùn)練學(xué)習(xí),避免了大規(guī)模數(shù)據(jù)計(jì)算的麻煩。實(shí)驗(yàn)中采用不同規(guī)模的訓(xùn)練樣本集,從結(jié)果發(fā)現(xiàn)對(duì)于訓(xùn)練樣本較少的數(shù)據(jù)集,采用結(jié)構(gòu)簡(jiǎn)單的學(xué)習(xí)函數(shù)會(huì)避免出現(xiàn)過(guò)學(xué)習(xí)現(xiàn)象;相反對(duì)于訓(xùn)練樣本較多的數(shù)據(jù)集,采用結(jié)構(gòu)簡(jiǎn)單的學(xué)習(xí)函數(shù),會(huì)降低機(jī)器學(xué)習(xí)的推廣能力。在實(shí)驗(yàn)中引進(jìn)懲罰因子C,允
3、許訓(xùn)練時(shí)錯(cuò)分樣本的存在,適當(dāng)增大C的值,可以提高學(xué)習(xí)機(jī)的推廣能力。支持向量機(jī)在尋求最優(yōu)分類(lèi)面的過(guò)程中,只涉及到內(nèi)積運(yùn)算,避免了維數(shù)災(zāi)難問(wèn)題。由于在中等規(guī)模數(shù)據(jù)中,支持向量機(jī)的參數(shù)會(huì)影響到分類(lèi)結(jié)果,為了得到最佳的分類(lèi)精度,我們采用交叉驗(yàn)證方法選擇參數(shù)值,結(jié)果表明,交叉驗(yàn)證法選擇參數(shù)提高了實(shí)驗(yàn)的平均測(cè)試準(zhǔn)確率。最后,把實(shí)驗(yàn)仿真結(jié)果和神經(jīng)網(wǎng)絡(luò)算法結(jié)果相比較,結(jié)果表明支持向量機(jī)分類(lèi)算法優(yōu)于神經(jīng)網(wǎng)絡(luò)算法。關(guān)鍵詞:支持向量機(jī);模式識(shí)另q;統(tǒng)計(jì)學(xué)理論;神經(jīng)網(wǎng)絡(luò)東北電力大學(xué)碩上學(xué)位論文AbstractThetraditionalp
4、atternrecognitionmethodsdealwiththeissuewimtheaccuratemodel.Itisalsodifficulttohaveagoodshowingagainstthenon—linearproblem.Thetraditionalstatisticallearningtheoryisasymptotictheorybasedonthenumberofthesampletendingtoinfinity.Practicalapplicationsofthesemethods
5、areoftenunsatisfactory.Thesupportvectormachineshavegooddisplaysinsolvingmodelingandthedimensiondisaster.Ithasalsothegoodapplicationinthesmallsamples。Itisbecominganewhotspotinthemachinelearningdomain.Thisthesisdiscussestheprincipleofthesupportvectormachineandit
6、sapplicationinclassification.Theexperimentsaredividedintothreegroupsandtwokindsofsupportvectormachinesforpolynomialkernelandradialbasisfunctionalechosentoexperimentbychangingtheparametervalues.Intheclassificationexperiment,wefindthatthenumberofthesupportvector
7、isfarlessthanthenumberofthetrainingsamplenumber.Thisprovidesthemethodforustosolvethelarge·scaledataproblembydividingtrainsamplesintoseveralsmallsubsetsandsequentiallytrainingsubsetsonebyone.Differentsizetrainingsamplesarechosenintheexperiments.Theresultsshowth
8、at,basedonstructuralriskminimizationprinciple,thelesstrainingsamples,usingsimplestructurelearningfunction,willbetoavoidaoverfittingphenomenon.Contrarytomoretrainingsamples,slightly