基于粗糙集與神經(jīng)網(wǎng)絡數(shù)據(jù)挖掘應用

基于粗糙集與神經(jīng)網(wǎng)絡數(shù)據(jù)挖掘應用

ID:5942336

大?。?0.00 KB

頁數(shù):7頁

時間:2017-12-29

基于粗糙集與神經(jīng)網(wǎng)絡數(shù)據(jù)挖掘應用_第1頁
基于粗糙集與神經(jīng)網(wǎng)絡數(shù)據(jù)挖掘應用_第2頁
基于粗糙集與神經(jīng)網(wǎng)絡數(shù)據(jù)挖掘應用_第3頁
基于粗糙集與神經(jīng)網(wǎng)絡數(shù)據(jù)挖掘應用_第4頁
基于粗糙集與神經(jīng)網(wǎng)絡數(shù)據(jù)挖掘應用_第5頁
資源描述:

《基于粗糙集與神經(jīng)網(wǎng)絡數(shù)據(jù)挖掘應用》由會員上傳分享,免費在線閱讀,更多相關內(nèi)容在學術論文-天天文庫。

1、基于粗糙集與神經(jīng)網(wǎng)絡數(shù)據(jù)挖掘應用  摘要:本論文就是根據(jù)電信行業(yè)需求,針對電信企業(yè)擁有大量詳實而且豐富的數(shù)據(jù),但是可用有效數(shù)據(jù)提取困難這一問題。首先利用粗糙集理論中的差別矩陣方法對電信客戶數(shù)據(jù)進行屬性約簡,之后采用BP(BackPropagation)神經(jīng)網(wǎng)絡建立基于粗糙集和神經(jīng)網(wǎng)絡的數(shù)據(jù)挖掘模型,實現(xiàn)對電信業(yè)務系統(tǒng)的客戶數(shù)據(jù)信息進行有效分析和高效提取,并通過matlab實現(xiàn)了仿真模擬。所建立的模型,減少神經(jīng)網(wǎng)絡的輸入層個數(shù)、簡化了運算次數(shù)、縮短了訓練時間并提高數(shù)據(jù)預測的準確度。Abstract:Basedontheneedsofthetelecommuni

2、cationsindustry,fortelecommunicationscompanieswhichhavealargenumberofdetailedandrichdata,butitisdifficultfortheextractionofavailablevaliddata.First,thispapercarriedoutattributereductiontotelecommunicationscustomerdatausingthedifferencematrixmethodofroughsettheory,andthenestablished

3、dataminingmodelbasedonroughsetandneuralnetwork,usingBP(BackPropagation)neuralnetwork,toachieveeffectiveanalysisandefficientextractiontocustomerdata7informationoftelecommunicationservicessystem,andrealizesimulationbymatlab.Theestablishedmodelreducesthenumberoftheinputlayeroftheneura

4、lnetwork,andsimplifiesthenumberofoperations,shortensthetrainingtimeandimprovestheaccuracyofthedataforecast.關鍵詞:粗糙集;BP神經(jīng)網(wǎng)絡;數(shù)據(jù)挖掘Keywords:roughsets;BPneuralnetwork;datamining中圖分類號:TP39文獻標識碼:A文章編號:1006-4311(2013)07-0185-020引言數(shù)據(jù)挖掘(DataMining—DM)[1]就是從海量的、不完整的、雜亂無規(guī)律的、模棱兩可的、隨機的數(shù)據(jù)庫中,提取隱含的、

5、人們無法通過表面現(xiàn)象觀察到的、但又對人們提供決策支持具有重要意義的信息和知識的過程。通過數(shù)據(jù)挖掘定義可知,數(shù)據(jù)挖掘就是將存儲在數(shù)據(jù)庫或數(shù)據(jù)倉庫中的對提供決策支持具有重要意義的信息和知識進行發(fā)現(xiàn)的過程。因此,數(shù)據(jù)挖掘又常被稱為數(shù)據(jù)庫中的知識發(fā)現(xiàn)(KDD)。1粗糙集理論定義17所謂的論域就是我們要研究的非空的數(shù)據(jù)組成的集合,即電信客戶數(shù)據(jù)集一般被存儲在數(shù)據(jù)庫中,一般情況下用符號U表示。設X為U中的子集,則任何子集X?哿U,稱為U中的一個概念或范疇,U中的任何概念族成為關于U的抽象知識,簡稱為知識[1]。對知識的劃分公式如下:ξ=X■,X■,……X■;X■?奐U,

6、X■?奐?覫,X■∩X■=?覫對于i≠j;i,j=1,2,…,n;■X■=U。其中Xn代表各個屬性。定義2若P滿足關系式P?哿R,且P非空,稱R為P上的不可區(qū)分關系,記為ind(P)[1,5],且有如下關系式:[x]■=■[x]■若K=(U,P)和K′=(U,Q)為兩個知識庫,且滿足關系ind(P)=ind(Q),即U/P=U/Q,則稱K和K′是等價的,記作K~K′。定義3知識約簡中有兩個基本概念[2,5]:約簡(reduct)和核(core),兩個是包含關系,滿足關系式core?哿reduct。設R和r為兩個等價關系,且存在關系式r∈R,如果ind(R)=

7、ind(R{r})7則稱r為R中不必要的,r是冗余的、干擾屬性,在屬性約簡過程中可以將r屬性刪除掉,而且不會影響制定決策;否則r為R中必須保留的屬性,也正是我們做屬性約簡想要得到的條件屬性。設Q?哿P,如果Q是獨立的,且ind(Q)=ind(P),則稱Q為P的一個約簡;顯然,P可以有多個約簡。P的核記作core(P),P的核是P中所有必要關系的集合。2差別矩陣屬性約簡算法優(yōu)化算法差別矩陣又稱為區(qū)分矩陣(discernibilitymatrix),是粗糙集對數(shù)據(jù)進行屬性約簡的一種方法,這種方法有許多優(yōu)點,但是最突出的優(yōu)點就是它能容易地計算約簡和核[3]。設知識

8、表達系統(tǒng)為S=(U,A,V,f),根據(jù)數(shù)據(jù)域U生成的

當前文檔最多預覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當前文檔最多預覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學公式或PPT動畫的文件,查看預覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權歸屬用戶,天天文庫負責整理代發(fā)布。如果您對本文檔版權有爭議請及時聯(lián)系客服。
3. 下載前請仔細閱讀文檔內(nèi)容,確認文檔內(nèi)容符合您的需求后進行下載,若出現(xiàn)內(nèi)容與標題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡波動等原因無法下載或下載錯誤,付費完成后未能成功下載的用戶請聯(lián)系客服處理。