基于多示例和多標(biāo)記學(xué)習(xí)的文本分類技術(shù)研究

基于多示例和多標(biāo)記學(xué)習(xí)的文本分類技術(shù)研究

ID:36689886

大小:6.00 MB

頁數(shù):82頁

時(shí)間:2019-05-13

基于多示例和多標(biāo)記學(xué)習(xí)的文本分類技術(shù)研究_第1頁
基于多示例和多標(biāo)記學(xué)習(xí)的文本分類技術(shù)研究_第2頁
基于多示例和多標(biāo)記學(xué)習(xí)的文本分類技術(shù)研究_第3頁
基于多示例和多標(biāo)記學(xué)習(xí)的文本分類技術(shù)研究_第4頁
基于多示例和多標(biāo)記學(xué)習(xí)的文本分類技術(shù)研究_第5頁
資源描述:

《基于多示例和多標(biāo)記學(xué)習(xí)的文本分類技術(shù)研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。

1、南京大學(xué)研究生畢業(yè)論文基于多示例和多標(biāo)記學(xué)習(xí)的文本分類技術(shù)研究ResearchonTextCategorizationTechniquesbasedonMulti-·InstanceandMulti--LabelLearning南京大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)系孫雨音導(dǎo)師:周志華教授二。一一年四月南京大學(xué)研究生畢業(yè)論文隨著互聯(lián)網(wǎng)和數(shù)字媒體技術(shù)的普及,數(shù)字文本的數(shù)量迅速增加,文本分類問題受到了研究者們的廣泛關(guān)注。多錄例學(xué)習(xí)由于其強(qiáng)大的表示能力可以更好地描述文本數(shù)據(jù)。許多情況下一個(gè)文檔與不止一個(gè)概念標(biāo)記相關(guān),多標(biāo)記學(xué)習(xí)可以刻畫這種同時(shí)具有多個(gè)

2、標(biāo)記的對(duì)象。本文嘗試?yán)眯滦偷亩嗍纠龑W(xué)習(xí)和多標(biāo)記學(xué)習(xí)技術(shù)輔助提高文本分類技術(shù)的性能。本文取得的創(chuàng)新成果主要包括:1.針對(duì)文本數(shù)據(jù)維度很高的問題,提出了一種多示例降維方法MIDR。通過設(shè)計(jì)出基于關(guān)鍵示例假設(shè)的多示例降維優(yōu)化目標(biāo)函數(shù),以及切空間梯度下降方法,可以有效地對(duì)多示例數(shù)據(jù)進(jìn)行降維。2.針對(duì)用戶對(duì)文本數(shù)據(jù)進(jìn)行標(biāo)注時(shí)往往只給出部分標(biāo)記的問題,提出了一種多標(biāo)記學(xué)習(xí)方法WELL。通過設(shè)計(jì)出基于密度劃分假設(shè)和顯式處理標(biāo)記不均衡性的優(yōu)化目標(biāo)函數(shù),以及利用相似標(biāo)記共享低秩基,可以有效地對(duì)標(biāo)注不完整的樣本進(jìn)行多標(biāo)記學(xué)習(xí)。上述工作均經(jīng)過大量實(shí)驗(yàn)

3、驗(yàn)證,并在人工智能領(lǐng)域的頂級(jí)國際會(huì)議AAAIConferenceOilArtificialIntelligence’2010發(fā)表。冀翻:機(jī)器學(xué)習(xí);文本分類;多示例學(xué)習(xí);多標(biāo)記學(xué)習(xí);降維;弱標(biāo)記學(xué)習(xí)南京大學(xué)研究生畢業(yè)論文WiththepopularityofInternetandmediatechnology,thevolumeofdigitaltext、increasesdramatically.Asa、resultresearchesontextcategorizationhaveattractedmuchattention.B

4、ecauseofitspowerfulrepresentationability,multi—instancelearningisconsideredmorepropertodescribetextdatathantraditionalsingle-instancemodel.What’Smore,consideringthatmostdocumentsarerelatedwithmorethanonetopic,multi-labellearning,whichstudiesthewholeassociatedlabelssim

5、ultaneously,iswidelyusedtoovercometheinefficacyofthetraditionalsingle-labellearning.Thisthesisfocusesonutilizingnovelmulti.instanceandmulti—labellearningtechniquetoimprovetheperformanceoftextcategorization.Indetail,maininnovativecontributionsofthisthesiscanbesummarize

6、dasfollows:1.Inordertodealwiththeproblemthattextdataalwayshavehighdimensionality,weproposeanovelmulti··instancedimensionalityreductionmethodMIDR·Wedesignanoptimizationobjectivefunctionconsideringthekeyinstanceassumptionofmulti-instancelearning,andusethegradientdecentm

7、ethodinthetangentspacetosolvethemulti-instancedimensionalityreductionproblemeffectively.2.Inordertodealwiththeproblemthatuserswillonlygivea¨partial¨setoflabelsfortextdata,weproposeamulti-labellearningmethodWELL.Wedesignanoptimizationobjectivefunctionconsideringlowdens

8、ityassumptionandclassimbalanceproblemsimultaneouslyandalsoexploitthecorrelationbetweenlabelsbyassumingthatthereisagroupoflow

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無此問題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。