基于深度學(xué)習(xí)的圖像語(yǔ)義理解和分類(lèi)研究

基于深度學(xué)習(xí)的圖像語(yǔ)義理解和分類(lèi)研究

ID:35067177

大?。?.71 MB

頁(yè)數(shù):56頁(yè)

時(shí)間:2019-03-17

基于深度學(xué)習(xí)的圖像語(yǔ)義理解和分類(lèi)研究_第1頁(yè)
基于深度學(xué)習(xí)的圖像語(yǔ)義理解和分類(lèi)研究_第2頁(yè)
基于深度學(xué)習(xí)的圖像語(yǔ)義理解和分類(lèi)研究_第3頁(yè)
基于深度學(xué)習(xí)的圖像語(yǔ)義理解和分類(lèi)研究_第4頁(yè)
基于深度學(xué)習(xí)的圖像語(yǔ)義理解和分類(lèi)研究_第5頁(yè)
資源描述:

《基于深度學(xué)習(xí)的圖像語(yǔ)義理解和分類(lèi)研究》由會(huì)員上傳分享,免費(fèi)在線(xiàn)閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫(kù)。

1、‘-?-.-..T'...,V.fV.,一-■J-V..*'.'.詩(shī).’乃‘/V/,■■\I..、分類(lèi)號(hào)TP391.4/,學(xué)號(hào)201313703004學(xué)校代碼10488密級(jí);':I一-、''一.乃一八心皆證碩±學(xué)位論文‘.'、/V.游'一/..(.<,八基于巧度學(xué)習(xí)的圖像語(yǔ)義理巧和分類(lèi)\茜研究'片.?.'...、:苦\’V’-'i;4VV:

2、學(xué)位申請(qǐng)人:m學(xué)科專(zhuān)業(yè):計(jì)算機(jī)科學(xué)與技術(shù)■?指導(dǎo)教師:m答辯日期:2016.05.21.-i'?....j\'''^-V>-V'?-'.'4.'巧,..:,ADissertationSubmittedUlPartialFulfillmentof化6RequirementsfbrtheDegreeofMas化ri田EngineeringImageclassificationandsema

3、nticresearchbasedondeelearningpMastierCandidate:PinWugMaor:ComuterscienceandtechnolojpgySupervisor:Prof.ZhangWuhanUniversitofScienceandTechnoloygyWuhan,Hubei430081,P.R.ChinaMa2016y,武漢科技大學(xué)研究生學(xué)位論文創(chuàng)新性聲明本人鄭重聲明:所呈交的學(xué)位論文是

4、本人在導(dǎo)師指導(dǎo)下,獨(dú)立進(jìn)行研究所取得的成果。除了文中己經(jīng)注明引用的內(nèi)容或?qū)俸献餮芯抗餐瓿傻模崳姽ぷ魍?,本論文不包含任何其他個(gè)人或集體己經(jīng)發(fā)表或撰寫(xiě)過(guò)的作品成果。。對(duì)本文的研究做出重要貢獻(xiàn)的個(gè)人和集體,均已在文中明確方式標(biāo)明一申請(qǐng)學(xué)位論文與資料若有不實(shí)之處,本人承擔(dān)切相關(guān)責(zé)任。論文作者簽名:征曰期:岐;、、,4研究生學(xué)位論文版權(quán)使用授權(quán)聲明本論文的研究成果歸武漢科技大學(xué)所有,其研究?jī)?nèi)容不得レッ其它單位的名義發(fā)表。本人完全了解武漢科技大學(xué)有關(guān)保留、使用學(xué)位論文的規(guī)定,同意學(xué)校保

5、留并向有關(guān)部n(按照《武化科技大學(xué)關(guān)于研究生學(xué)位論文收錄工作的規(guī)定》執(zhí)行)送交論文的復(fù)印件和電子版本,允許論文被查閱和借閱,同意學(xué)校將本論文的全部或部分內(nèi)容編入學(xué)校認(rèn)可的國(guó)家相關(guān)數(shù)據(jù)庫(kù)進(jìn)行檢索和對(duì)外服務(wù)。論文作者簽名:4豕指導(dǎo)教師簽名:^參日期:如ds、y摘要隨著當(dāng)今社會(huì)互朕網(wǎng)技術(shù)的快速發(fā)展,w及圖像多媒體等設(shè)備的流行,越來(lái)越多的人開(kāi)始在網(wǎng)絡(luò)上發(fā)表、下載和共享圖像資源,W圖像數(shù)據(jù)為代表的多媒體視覺(jué)信息量日益劇增。因此,如何對(duì)目前存在的海量圖像信息進(jìn)行有效而準(zhǔn)確的

6、分類(lèi)管理和信息標(biāo)注是亟待解決的技術(shù)難題與研究熱點(diǎn)。傳統(tǒng)的圖像分類(lèi)方法中,大多數(shù)根據(jù)人為定義的規(guī)則來(lái)對(duì)原始圖像數(shù)據(jù)進(jìn)行處理計(jì)算得到相應(yīng)的特征矩陣;而深度學(xué)習(xí)算法則通過(guò)對(duì)計(jì)算機(jī)的訓(xùn)練過(guò)程來(lái)自一動(dòng)學(xué)習(xí)持征。因此,本文提出了種改進(jìn)的Softmax回歸模型與基于線(xiàn)性解碼器深度神經(jīng)網(wǎng)絡(luò)相結(jié)合的圖像分類(lèi)算法。首先,通過(guò)基于線(xiàn)性解碼器的神經(jīng)網(wǎng)絡(luò)訓(xùn)練得到局部小圖像的特征,再通過(guò)卷積、池化得到原始大圖像的特征矩陣;其次,通過(guò)傳統(tǒng)特征提取算法得到圖像的顏色和紋理特征;然后結(jié)合這兩類(lèi)圖像特征對(duì)參數(shù)優(yōu)化后

7、的Softmax回歸模型進(jìn)巧訓(xùn)練并結(jié)合距離度量完成圖像分類(lèi),得到最終分類(lèi)結(jié)果。在實(shí)驗(yàn)結(jié)果的對(duì)比分析中,采用查準(zhǔn)率、查全率作為評(píng)價(jià)指標(biāo),驗(yàn)證了基于。深度學(xué)習(xí)的圖像語(yǔ)義理解和分類(lèi)方法的有效性和優(yōu)越性同時(shí),將實(shí)驗(yàn)與多種傳統(tǒng)分類(lèi)方法做了對(duì)比,實(shí)驗(yàn)結(jié)果顯示出該算法具有較高的分類(lèi)能力。關(guān)鍵詞:圖像分類(lèi);深度學(xué)習(xí);線(xiàn)性解碼器;Softmax回歸模型IAbstrad:WiththeviorousdevelomentofInternetandmultimediatechnoloa

8、swellasgpgy,therisingpopularhyofsocialmedia,moreandmorepeoplebegin化upload,downloadandshareimagesKsourcesintheInternet.Imagedataraduallbecomeanimortantgypmediumofinfo

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫(huà)的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無(wú)此問(wèn)題,請(qǐng)放心下載。
2. 本文檔由用戶(hù)上傳,版權(quán)歸屬用戶(hù),天天文庫(kù)負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無(wú)法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶(hù)請(qǐng)聯(lián)系客服處理。