基于樣本抽樣和權(quán)重調(diào)整的SWA-Adaboost算法-論文.pdf

基于樣本抽樣和權(quán)重調(diào)整的SWA-Adaboost算法-論文.pdf

ID:58140486

大?。?06.84 KB

頁(yè)數(shù):5頁(yè)

時(shí)間:2020-04-24

基于樣本抽樣和權(quán)重調(diào)整的SWA-Adaboost算法-論文.pdf_第1頁(yè)
基于樣本抽樣和權(quán)重調(diào)整的SWA-Adaboost算法-論文.pdf_第2頁(yè)
基于樣本抽樣和權(quán)重調(diào)整的SWA-Adaboost算法-論文.pdf_第3頁(yè)
基于樣本抽樣和權(quán)重調(diào)整的SWA-Adaboost算法-論文.pdf_第4頁(yè)
基于樣本抽樣和權(quán)重調(diào)整的SWA-Adaboost算法-論文.pdf_第5頁(yè)
資源描述:

《基于樣本抽樣和權(quán)重調(diào)整的SWA-Adaboost算法-論文.pdf》由會(huì)員上傳分享,免費(fèi)在線(xiàn)閱讀,更多相關(guān)內(nèi)容在行業(yè)資料-天天文庫(kù)

1、第40卷第9期計(jì)算機(jī)工程2014年9月Vo1.40NO.9ComputerEngineeringSeptember2014·人工智能及識(shí)別技術(shù)·文章編號(hào):looo-34282014)09-0248-04文獻(xiàn)標(biāo)識(shí)碼:A中圖分類(lèi)號(hào):TP18基于樣本抽樣和權(quán)重調(diào)整的SWA—Adaboost算法高敬陽(yáng),趙彥(北京化工大學(xué)信息科學(xué)與技術(shù)學(xué)院,北京100029)摘要:根據(jù)分類(lèi)算法是依據(jù)樣本區(qū)分度進(jìn)行分類(lèi)的原理,提出增加樣本屬性以提高樣本區(qū)分度的方法,在樣本預(yù)處理階段對(duì)所有樣本增加一個(gè)屬性值d?以加強(qiáng)樣本之間的區(qū)分度。針對(duì)原始A

2、daboost算法在抽樣階段由于抽樣不均而導(dǎo)致對(duì)某些類(lèi)訓(xùn)練不足的問(wèn)題,采用均衡抽樣方法,保證在抽樣階段所抽取的不同類(lèi)樣本的數(shù)量比例不變。針對(duì)原始算法樣本權(quán)重增長(zhǎng)過(guò)快的問(wèn)題,給出新的權(quán)重調(diào)整策略,引入樣本錯(cuò)分計(jì)數(shù)量count(n),有效地抑制樣本權(quán)重增長(zhǎng)速度。給出一種改進(jìn)的Adaboost算法,即SWA·Adaboost算法,并采用美國(guó)加州大學(xué)機(jī)器學(xué)習(xí)UCI數(shù)據(jù)庫(kù)中6種數(shù)據(jù)集的數(shù)據(jù)對(duì)改進(jìn)算法與原始算法進(jìn)行實(shí)驗(yàn)對(duì)比,結(jié)果證明,改進(jìn)算法SWA—Adaboost在泛化性能上優(yōu)于Adaboost算法,泛化誤差平均降低9.54

3、%。關(guān)鍵詞:樣本預(yù)處理;均衡抽樣;權(quán)重調(diào)整;泛化性能;類(lèi)中心最小距離;樣本區(qū)分度SWA—AdaboostAlgorithmBasedonSamplingandWeightAdjustmentGAOJing—yang,ZHAOYan(CollegeofInformationScienceandTechnology,BeijingUniversityofChemicalTechnology,Beijing100029,China)【Abstract】Becausetheclassificationalgorithmba

4、sedonthedifferencesamongsamples,anewmethodisproposedwhichaddsanewpropertyvalued。intoeachsampleinordertoincreasethedifferences.Besides,accordingtothesituationthatsamplesbelongingtodifferentclassesaresampledunevenlyinthesamplingphase,anewmethodcalledevensampling

5、isproposedtokeeptheproportionofdifferenceclassesinvariant.Forthepurposeofinhibitionoftheincrementspeedofmisclassificationsamples,anewmethodisproposedwhichbringsinavariablecount(n)torecordthetimesofmisclassification.Intheword.a(chǎn)nimprovedalgorithmcalledSamplingeq

6、uilibrium&Weightadjustment&AddattributeAdaboost(SWA-Adaboost)isproposed.Usingthe6datasetsbelongingtomachinelearningdatabaseofUniversityofCaliforniainUSA,thepaperrunsexperimentstocomparetheoriginalAdaboostwithSWA-Adaboost.ExperimentalresultsshowthatSWA—Adaboost

7、hasbettergeneralizationperformancethantheoriginalAdaboostandtheaveragedecreaseofgeneralizationerroris9.54%.【Keywords】samplepreprocessing;evensampling;weightadjustment;generalizationperformance;minimumdistanceofclasscenter;differentdegreeofsampleDOI:10.3969/j.i

8、ssn.1000.3428.2O14.09.050仍然存在以下缺陷:1概述(1)樣本屬性部分的區(qū)分度不明顯而影響樣本Adaboost算法作為最受歡迎的分類(lèi)集成算法分類(lèi)效果。在機(jī)器學(xué)習(xí)領(lǐng)域得到了極大的關(guān)注。。該算法是(2)訓(xùn)練過(guò)程中由于對(duì)樣本抽樣不均而使分類(lèi)boosting算法中應(yīng)用最廣泛的算法,將若干個(gè)弱分器對(duì)某些類(lèi)訓(xùn)練不充分。類(lèi)器通過(guò)線(xiàn)性集成而得到一個(gè)強(qiáng)分

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫(huà)的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無(wú)此問(wèn)題,請(qǐng)放心下載。
2. 本文檔由用戶(hù)上傳,版權(quán)歸屬用戶(hù),天天文庫(kù)負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無(wú)法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶(hù)請(qǐng)聯(lián)系客服處理。