資源描述:
《基于樣本抽樣和權(quán)重調(diào)整的SWA-Adaboost算法-論文.pdf》由會(huì)員上傳分享,免費(fèi)在線(xiàn)閱讀,更多相關(guān)內(nèi)容在行業(yè)資料-天天文庫(kù)。
1、第40卷第9期計(jì)算機(jī)工程2014年9月Vo1.40NO.9ComputerEngineeringSeptember2014·人工智能及識(shí)別技術(shù)·文章編號(hào):looo-34282014)09-0248-04文獻(xiàn)標(biāo)識(shí)碼:A中圖分類(lèi)號(hào):TP18基于樣本抽樣和權(quán)重調(diào)整的SWA—Adaboost算法高敬陽(yáng),趙彥(北京化工大學(xué)信息科學(xué)與技術(shù)學(xué)院,北京100029)摘要:根據(jù)分類(lèi)算法是依據(jù)樣本區(qū)分度進(jìn)行分類(lèi)的原理,提出增加樣本屬性以提高樣本區(qū)分度的方法,在樣本預(yù)處理階段對(duì)所有樣本增加一個(gè)屬性值d?以加強(qiáng)樣本之間的區(qū)分度。針對(duì)原始A
2、daboost算法在抽樣階段由于抽樣不均而導(dǎo)致對(duì)某些類(lèi)訓(xùn)練不足的問(wèn)題,采用均衡抽樣方法,保證在抽樣階段所抽取的不同類(lèi)樣本的數(shù)量比例不變。針對(duì)原始算法樣本權(quán)重增長(zhǎng)過(guò)快的問(wèn)題,給出新的權(quán)重調(diào)整策略,引入樣本錯(cuò)分計(jì)數(shù)量count(n),有效地抑制樣本權(quán)重增長(zhǎng)速度。給出一種改進(jìn)的Adaboost算法,即SWA·Adaboost算法,并采用美國(guó)加州大學(xué)機(jī)器學(xué)習(xí)UCI數(shù)據(jù)庫(kù)中6種數(shù)據(jù)集的數(shù)據(jù)對(duì)改進(jìn)算法與原始算法進(jìn)行實(shí)驗(yàn)對(duì)比,結(jié)果證明,改進(jìn)算法SWA—Adaboost在泛化性能上優(yōu)于Adaboost算法,泛化誤差平均降低9.54
3、%。關(guān)鍵詞:樣本預(yù)處理;均衡抽樣;權(quán)重調(diào)整;泛化性能;類(lèi)中心最小距離;樣本區(qū)分度SWA—AdaboostAlgorithmBasedonSamplingandWeightAdjustmentGAOJing—yang,ZHAOYan(CollegeofInformationScienceandTechnology,BeijingUniversityofChemicalTechnology,Beijing100029,China)【Abstract】Becausetheclassificationalgorithmba
4、sedonthedifferencesamongsamples,anewmethodisproposedwhichaddsanewpropertyvalued。intoeachsampleinordertoincreasethedifferences.Besides,accordingtothesituationthatsamplesbelongingtodifferentclassesaresampledunevenlyinthesamplingphase,anewmethodcalledevensampling
5、isproposedtokeeptheproportionofdifferenceclassesinvariant.Forthepurposeofinhibitionoftheincrementspeedofmisclassificationsamples,anewmethodisproposedwhichbringsinavariablecount(n)torecordthetimesofmisclassification.Intheword.a(chǎn)nimprovedalgorithmcalledSamplingeq
6、uilibrium&Weightadjustment&AddattributeAdaboost(SWA-Adaboost)isproposed.Usingthe6datasetsbelongingtomachinelearningdatabaseofUniversityofCaliforniainUSA,thepaperrunsexperimentstocomparetheoriginalAdaboostwithSWA-Adaboost.ExperimentalresultsshowthatSWA—Adaboost
7、hasbettergeneralizationperformancethantheoriginalAdaboostandtheaveragedecreaseofgeneralizationerroris9.54%.【Keywords】samplepreprocessing;evensampling;weightadjustment;generalizationperformance;minimumdistanceofclasscenter;differentdegreeofsampleDOI:10.3969/j.i
8、ssn.1000.3428.2O14.09.050仍然存在以下缺陷:1概述(1)樣本屬性部分的區(qū)分度不明顯而影響樣本Adaboost算法作為最受歡迎的分類(lèi)集成算法分類(lèi)效果。在機(jī)器學(xué)習(xí)領(lǐng)域得到了極大的關(guān)注。。該算法是(2)訓(xùn)練過(guò)程中由于對(duì)樣本抽樣不均而使分類(lèi)boosting算法中應(yīng)用最廣泛的算法,將若干個(gè)弱分器對(duì)某些類(lèi)訓(xùn)練不充分。類(lèi)器通過(guò)線(xiàn)性集成而得到一個(gè)強(qiáng)分