基于決策樹(shù)和粗糙集的分類方法研究

基于決策樹(shù)和粗糙集的分類方法研究

ID:33173878

大?。?.57 MB

頁(yè)數(shù):60頁(yè)

時(shí)間:2019-02-21

基于決策樹(shù)和粗糙集的分類方法研究_第1頁(yè)
基于決策樹(shù)和粗糙集的分類方法研究_第2頁(yè)
基于決策樹(shù)和粗糙集的分類方法研究_第3頁(yè)
基于決策樹(shù)和粗糙集的分類方法研究_第4頁(yè)
基于決策樹(shù)和粗糙集的分類方法研究_第5頁(yè)
資源描述:

《基于決策樹(shù)和粗糙集的分類方法研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫(kù)。

1、密級(jí):分類號(hào):了尸專lY9821]0G單位代碼:10422學(xué)號(hào):加弓J≯≯f8JL莨'。毛碩士學(xué)位論文論文題目:孰球藁樹(shù)和巍拋象厶今裘弓陔研鈕作者姓名至墨壘主!專業(yè)盟望型j!{塑絲掏.指導(dǎo)教師姓名專業(yè)技術(shù)職務(wù)趔§疊丕l盤(pán)絲po6年印月』,日山東大學(xué)碩士學(xué)位論文摘要數(shù)據(jù)挖掘是利用分析工具從大量的、不完全的、有噪聲的、’模糊的、隨機(jī)的數(shù)據(jù)中,提取出隱含在其中,事先未知、潛在有用的信息和知識(shí)的過(guò)程,建立數(shù)據(jù)間關(guān)系模型,用其做出預(yù)測(cè),從而為決策者提供輔助.決策樹(shù)是一種常用的分類模型,并以其能直接體現(xiàn)數(shù)據(jù)特點(diǎn),分類效率高、

2、速度快,理解性好等特點(diǎn)在數(shù)據(jù)挖掘及其它領(lǐng)域中被廣泛使用:粗糙集理論是一種處理不精確、不確定和不完備信息的有效方法,隨著其在各領(lǐng)域中的成功應(yīng)用,引起各國(guó)廣大學(xué)者的關(guān)注.本文圍繞決策樹(shù)和粗糙集理論進(jìn)行了相關(guān)的研究和創(chuàng)新,主要內(nèi)容包括;首先,對(duì)決策樹(shù)、粗糙集理論和粗糙集中信息熵的表現(xiàn)形式進(jìn)行‘了系統(tǒng)的研究,分析了信息熵與粗糙集理論中上、下近似之間的關(guān)系.考慮到經(jīng)典的ID3算法用求熵的方法選擇節(jié)點(diǎn)分裂屬性時(shí)沒(méi)有考慮到噪聲的影響,對(duì)噪聲比較敏感,而可變精度粗糙集理論對(duì)噪聲有很好的抑制作用,所以,結(jié)合可變精度的思想對(duì)ID3算

3、法進(jìn)行了改進(jìn),使其更能適應(yīng)噪聲比例較大的數(shù)據(jù)集,更加符合實(shí)際要求.其次,粗糙集理論中的屬性約簡(jiǎn)方法可以在不影響分類能力的前提下對(duì)數(shù)據(jù)集進(jìn)行簡(jiǎn)化,為此,提出了一種基于屬性重要性概念的啟發(fā)式的屬性約簡(jiǎn)算法.而后,用提出的基于屬性重要性的屬性約簡(jiǎn)方法對(duì)數(shù)據(jù)集進(jìn)行簡(jiǎn)化,以改進(jìn)后的ID3算法為建樹(shù)算法,根據(jù)建樹(shù)算法的特點(diǎn)選擇了基于期望誤分率的后剪枝算法為樹(shù)的剪枝算法,設(shè)計(jì)了一個(gè)分類器:之后,‘用UCI數(shù)據(jù)庫(kù)中的多個(gè)數(shù)據(jù)集為實(shí)驗(yàn)數(shù)據(jù)進(jìn)行了模擬實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,這種改進(jìn)后的決策樹(shù)生成算法在抑制噪聲方面要優(yōu)于改進(jìn)前的ID3算法

4、,其實(shí)用性更好.最后,對(duì)論文工作做了總結(jié)、分析了存在的問(wèn)題,指出了下一步的工作.關(guān)鍵詞:數(shù)據(jù)挖掘:分類:決策樹(shù):ID3算法:粗糙集山東大學(xué)碩士學(xué)位論文ABSTRACTDataminingistheprocessthatUSeStheanalyticaltoolstoextractsomeimplicit,unknown,potentiallyusefulinformationandknowledgefromlarge,incomplete,noise,fuzzyandstochasticdatasets,then

5、therelationshipamongdatacouldbeestablished,thusforecastcouldbemadewithit,andassistancecouldbeprovidedforthepolicy-maker.Decisiontreeisacommonclassificationmodel,anditisusedwidelyindataminingandotherfieldsbecausethatitcanreflectcharacteristicsofdatadirectly,an

6、ditisefficient,fast,easytounderstand;Roughsetstheoryisaeffectivemethodindealingwithimprecise,uncertainandincompletedata,andithasbeenappliedsuccessfullyinalotofdomains,so,roughsetstheorygetsmoreattentionfromscholarsinmanycountries.Aresearchwasmadeandsomenewide

7、aswereputforwardinthispaperbasingondecisiontreeandroughsetstheory,themaincontentsofpaperarelistedasfollow:Inthefirst,aresearchwasmadebasingonDecisiontree,Roughsetstheoryandhowitisrepresentedbyentropy,andtherelationshipwasanalyzedbetweenupper-lowerapproximatio

8、nandentropy.BecausetheeffectofnoisehasnotbeenthoughwhenusedtheentropymethodtoselectthesplittingattributeinfamousID3algorithm,soitissensitivitytonoise,butvariableprecisionroughsetcouldrest

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫(huà)的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無(wú)此問(wèn)題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫(kù)負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無(wú)法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。