資源描述:
《模糊聚類在特征選取中的應用》由會員上傳分享,免費在線閱讀,更多相關內(nèi)容在工程資料-天天文庫。
1、李求實等:平衡IO和CPU的XML關鍵詞檢索125模糊聚類在特征選取中的應用劉全金1,2,趙志敏1,李穎新3(1.南京航空航天大學理學院,江蘇南京210016;2.安慶師范學院物理與電氣工程學院,安徽安慶246011;3.北京經(jīng)緯紡機新技術有限公司機器視覺與智能研究所,北京100176)摘要:提出了一種基于模糊聚類算法的高維特征選取方法。首先,利用Bhattacharyya距離過濾樣本類別無關的特征;然后,基于遞歸特征剔除過程,提出了基于模糊ISODATA聚類方法,以樣本與聚類中心的加權(quán)距離作為可分性指標,產(chǎn)生候選特
2、征子集;最后,以候選特征子集分類和聚類的AUC值和正確率作為目標函數(shù),確定最佳特征子集。將該方法用于選取5個基因表達譜數(shù)據(jù)集的特征基因,結(jié)果顯示該方法所選特征具有較好的分類和聚類能力,說明了提出的特征選取方法的有效性。關鍵詞:特征選取;模糊ISODATA;層次聚類;支持向量機;K近鄰ApplicationofFuzzyClusteringAlgorithmonfeatureselectionQuanjinLiu1,2,ZhiminZhao1,Ying-XinLi3(1.CollegeofScience,Nanjing
3、UniversityofAeronauticsandAstronautics,Nanjing,210016,China;2.DepartmentofPhysics,AnQingNormalCollege,Anqing,246011,China;3.InstituteofMachineVisionandMachineIntelligence,BeijingJingweiTextileMachineryNewTechnologyCo.,Ltd.,Beijing100176,China)Abstract:Anewfeatu
4、reselectionmethodbasedonclusteringalgorithmisproposedtoselectinginformativefeatures.First,category-unrelatedfeaturesarekickedoutaccordingtoBhattacharyyadistance.Then,basedontheprocessofrecursivefeatureelimination,aweighteddistancebetweensampleandtheclustercente
5、rgeneratedbythefuzzyInteractiveSelf-OrganizingDataAlgorithm(ISODATA)isusedastheindexoffeatureforseparatingdifferentclasses.Finally,thecandidatefeaturesubsetwiththemaximumAUCvalueandaccuracyratebothinclassificationandclusteringtestsisselectedastheoptimalfeatures
6、ubset.Theproposedfeaturesubsetselectionmethodisappliedto5geneexpressionprofiledatasetsandexperimentresultsshowthattheselectedfeatureshavegoodperformanceintermsofbothclassificationandclusteringmeasurements.Thisdemonstratesthattheproposedmethodiseffectiveforselec
7、tinginformativefeaturesfromhighdimensionaldataset.Keywords:featureselection;fuzzyISODATA;Hierachicalclustering;Supportvectormachine;K-nearestneighbor文獻標識碼:A中圖分類號:TP391,Q81271引言從高維數(shù)據(jù)中選出與類別相關的特征是機器學習和模式分類的重要一步,特征選取方法的優(yōu)劣將影響到分類和聚類結(jié)果[1,2],選取的特征應該同時具有較強的分類和聚類能力。filte
8、r和wrapper是兩種常用的高維數(shù)據(jù)集的特征選取手段[3]。Filter方法利用可分性指標評定特征的重要性,選取有效的類別特征,但這種可分性指標僅從單個特征出發(fā),沒有考慮特征間的相互關系,所以選取的特征并非最優(yōu)[4,5]7。wrapper方法則圍繞學習算法,根據(jù)該算法執(zhí)行情況選取相關的特征,這種方法能夠取得比filter方法更優(yōu)的結(jié)果[6,7