基于粗糙集理論的數(shù)據(jù)挖掘方法研究

基于粗糙集理論的數(shù)據(jù)挖掘方法研究

ID:33756648

大小:1.83 MB

頁數(shù):59頁

時間:2019-02-28

基于粗糙集理論的數(shù)據(jù)挖掘方法研究_第1頁
基于粗糙集理論的數(shù)據(jù)挖掘方法研究_第2頁
基于粗糙集理論的數(shù)據(jù)挖掘方法研究_第3頁
基于粗糙集理論的數(shù)據(jù)挖掘方法研究_第4頁
基于粗糙集理論的數(shù)據(jù)挖掘方法研究_第5頁
資源描述:

《基于粗糙集理論的數(shù)據(jù)挖掘方法研究》由會員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。

1、中國科學(xué)技術(shù)大學(xué)碩士學(xué)位論文基于粗糙集理論的數(shù)據(jù)挖掘方法研究姓名:叢丹申請學(xué)位級別:碩士專業(yè):模式識別與智能系統(tǒng)指導(dǎo)教師:王俊普20030501摘要本文遙過在褪糙集懿倍惠表示翁蘩醚上,由鼗糙集蕊代數(shù)表示窩信息表示瓣~致性,旋出了一種基于信息量的糯糙集屬性約簡算法,該冀法的基本愚想蹙通過屬性塑髏性的發(fā)量求出粗糙集的核,然后在核的基礎(chǔ)上,繼矮依據(jù)屬性重疆性魏度量,隧約籬鵓信息鱉裙愿莛性焱舍懿蕊憊量棚等這一準(zhǔn)劉柬逐芎j二鬢牲約麓,算法籬犖,效率離。通過研究傳統(tǒng)數(shù)據(jù)挖掘方法的知識評估標(biāo)準(zhǔn)綴小支持度葶口娥小囂信艘,發(fā)現(xiàn)有些知識可能被忽略,提出新增的知識評估標(biāo)準(zhǔn)——支持度最小膨脹艘和支持度楚,{

2、、頸{ll{

3、臻,穩(wěn)溪這舔令王l}麴魏知識譯估標(biāo)灌,練合爨毒支蔣凌窩最小置信發(fā)柩準(zhǔn),對數(shù)據(jù)庫述行分部挖掘,可以褥出更加深屢次的有趣的知識。并舉例澆磷了這一對新增標(biāo)準(zhǔn)的可行性。傳絞數(shù)鍵籠攘方法一般是以寥務(wù)數(shù)據(jù)露憊直接靜挖掇對象,這裁遮藏了必矮在挖掘過穗中對于寵大的事務(wù)鼗舔瘁送行多次翁掃箍來提取甄黿鞋,效率比較低。數(shù)據(jù)挖掇怒為了完成知瀕挖掘這?任務(wù),知識是~耪頻繁出現(xiàn)黝屬性焚合,它實(shí)際上是一種頻繁出現(xiàn)的屬性的關(guān)聯(lián)。在此基礎(chǔ)上,本文提出了~種伴隨2.頻繁集贅鼗搖存豫縫穆,揮雋事務(wù)數(shù)據(jù)瘁鶼醛jii;。存入囂孛靛是事務(wù)數(shù)據(jù)庫中頻繁出瑗(超過一種比最小支持艘小的支持艘滾僮的一靜度鲞標(biāo)準(zhǔn))2元關(guān)系

4、酶集合。將數(shù)據(jù)挖掘建立在伴隨2“頻繁集數(shù)據(jù)的基礎(chǔ)上,懸?H軍十很好的想法。由于伴隨2.頻繁集數(shù)糍庫本癆是一罩串超出一個確定潤篷的2.元璃毪集會,這群,攫多對予挖菰無蔫豹數(shù)據(jù)將不菠考懋,兩顯它本雋是對事務(wù)數(shù)獾摶一種泛純,數(shù)羹鄉(xiāng)。以伴隨2一頻繁蕊數(shù)據(jù)庫干挈為數(shù)據(jù)挖掘瞧對象,可阻避免對于事務(wù)數(shù)攪庫的頻繁掃描,很大程度上提高了挖掘的效率。本文聚螽~幫分綴會以上三個方疆:疆饞夔2.頻繁集為數(shù)攢挖撼對象,別矮基予信息爨瓣糯麓集凰注約籬算法,懿鼴標(biāo)準(zhǔn)加上新增翡知識評估標(biāo)準(zhǔn)速行知識挖掘。這種數(shù)據(jù)挖掘方法和結(jié)構(gòu),餓得算法簡單,挖掘效率商,挖掘的知識中除了傳統(tǒng)的數(shù)提挖掘方法中珂}丑褥到的那部分之外,包含

5、蓑一些更加有趣的信息。霆藍(lán)吳煮綴嵩弱實(shí)際瘟鼷徐篷。除此之外,本文還提出了一種黼散的關(guān)聯(lián)規(guī)則的挖掘算法。關(guān)鍵詞數(shù)據(jù)挖掘;最小支持度;鬣小置信度;糧糙集;信息鬟;屬性的重甏矬:伴隨2。頻繁黧:最小澎漲度;最小預(yù)測馕AbstractBasedonthecoherenceofinformationexpressandalgebraicexpressofRoughset,thispaperpresentsakindofattributereductionalgorithmwithroughsetbasedoninformationquantlty.7themainideaofthisalgor

6、ithmistofindtheCoreofattributesetaccordingtotheimportanceofattributes,thentoreduceattributesaccordingtothemeasurementoftheimportanceofattributes,andtheinformationquantityofreductionmustbeequaltooriginattributeset.Thisalgorithmisveryeasy,andcanattainhighefficiency.Undertheevaluationstandards(min

7、imumsupportandminimumconfidence)oftraditionalDMmethods,someknowledgewillbeignored.Thisthesispresentsasetofnewknowledgeevaluationstandards(minimumexpandabilityandminimumforecast).Byusingthispairofappendedevaluationstandards,minimumsupportandminimumconfidence,tominethedatabasepartafterpart,wecang

8、etmoreinterestingknowledgeindeeplayer.TraditionalDMmethods,generally,usedatabasedirectly,andscanthedatabasemanytimesduringDM.Theefficiencyisverylow.ThepurposeofDMistofindknowledgebeinghidedindatabase,andknowledgeisa蛾ofsomeattribut

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動畫的文件,查看預(yù)覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯誤,付費(fèi)完成后未能成功下載的用戶請聯(lián)系客服處理。