資源描述:
《基于深度學(xué)習(xí)的圖像語(yǔ)義理解和分類(lèi)研究》由會(huì)員上傳分享,免費(fèi)在線(xiàn)閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫(kù)。
1、‘-?-.-..T'...,V.fV.,一-■J-V..*'.'.詩(shī).’乃‘/V/,■■\I..、分類(lèi)號(hào)TP391.4/,學(xué)號(hào)201313703004學(xué)校代碼10488密級(jí);':I一-、''一.乃一八心皆證碩±學(xué)位論文‘.'、/V.游'一/..(.<,八基于巧度學(xué)習(xí)的圖像語(yǔ)義理巧和分類(lèi)\茜研究'片.?.'...、:苦\’V’-'i;4VV:
2、學(xué)位申請(qǐng)人:m學(xué)科專(zhuān)業(yè):計(jì)算機(jī)科學(xué)與技術(shù)■?指導(dǎo)教師:m答辯日期:2016.05.21.-i'?....j\'''^-V>-V'?-'.'4.'巧,..:,ADissertationSubmittedUlPartialFulfillmentof化6RequirementsfbrtheDegreeofMas化ri田EngineeringImageclassificationandsema
3、nticresearchbasedondeelearningpMastierCandidate:PinWugMaor:ComuterscienceandtechnolojpgySupervisor:Prof.ZhangWuhanUniversitofScienceandTechnoloygyWuhan,Hubei430081,P.R.ChinaMa2016y,武漢科技大學(xué)研究生學(xué)位論文創(chuàng)新性聲明本人鄭重聲明:所呈交的學(xué)位論文是
4、本人在導(dǎo)師指導(dǎo)下,獨(dú)立進(jìn)行研究所取得的成果。除了文中己經(jīng)注明引用的內(nèi)容或?qū)俸献餮芯抗餐瓿傻模崳姽ぷ魍?,本論文不包含任何其他個(gè)人或集體己經(jīng)發(fā)表或撰寫(xiě)過(guò)的作品成果。。對(duì)本文的研究做出重要貢獻(xiàn)的個(gè)人和集體,均已在文中明確方式標(biāo)明一申請(qǐng)學(xué)位論文與資料若有不實(shí)之處,本人承擔(dān)切相關(guān)責(zé)任。論文作者簽名:征曰期:岐;、、,4研究生學(xué)位論文版權(quán)使用授權(quán)聲明本論文的研究成果歸武漢科技大學(xué)所有,其研究?jī)?nèi)容不得レッ其它單位的名義發(fā)表。本人完全了解武漢科技大學(xué)有關(guān)保留、使用學(xué)位論文的規(guī)定,同意學(xué)校保
5、留并向有關(guān)部n(按照《武化科技大學(xué)關(guān)于研究生學(xué)位論文收錄工作的規(guī)定》執(zhí)行)送交論文的復(fù)印件和電子版本,允許論文被查閱和借閱,同意學(xué)校將本論文的全部或部分內(nèi)容編入學(xué)校認(rèn)可的國(guó)家相關(guān)數(shù)據(jù)庫(kù)進(jìn)行檢索和對(duì)外服務(wù)。論文作者簽名:4豕指導(dǎo)教師簽名:^參日期:如ds、y摘要隨著當(dāng)今社會(huì)互朕網(wǎng)技術(shù)的快速發(fā)展,w及圖像多媒體等設(shè)備的流行,越來(lái)越多的人開(kāi)始在網(wǎng)絡(luò)上發(fā)表、下載和共享圖像資源,W圖像數(shù)據(jù)為代表的多媒體視覺(jué)信息量日益劇增。因此,如何對(duì)目前存在的海量圖像信息進(jìn)行有效而準(zhǔn)確的
6、分類(lèi)管理和信息標(biāo)注是亟待解決的技術(shù)難題與研究熱點(diǎn)。傳統(tǒng)的圖像分類(lèi)方法中,大多數(shù)根據(jù)人為定義的規(guī)則來(lái)對(duì)原始圖像數(shù)據(jù)進(jìn)行處理計(jì)算得到相應(yīng)的特征矩陣;而深度學(xué)習(xí)算法則通過(guò)對(duì)計(jì)算機(jī)的訓(xùn)練過(guò)程來(lái)自一動(dòng)學(xué)習(xí)持征。因此,本文提出了種改進(jìn)的Softmax回歸模型與基于線(xiàn)性解碼器深度神經(jīng)網(wǎng)絡(luò)相結(jié)合的圖像分類(lèi)算法。首先,通過(guò)基于線(xiàn)性解碼器的神經(jīng)網(wǎng)絡(luò)訓(xùn)練得到局部小圖像的特征,再通過(guò)卷積、池化得到原始大圖像的特征矩陣;其次,通過(guò)傳統(tǒng)特征提取算法得到圖像的顏色和紋理特征;然后結(jié)合這兩類(lèi)圖像特征對(duì)參數(shù)優(yōu)化后
7、的Softmax回歸模型進(jìn)巧訓(xùn)練并結(jié)合距離度量完成圖像分類(lèi),得到最終分類(lèi)結(jié)果。在實(shí)驗(yàn)結(jié)果的對(duì)比分析中,采用查準(zhǔn)率、查全率作為評(píng)價(jià)指標(biāo),驗(yàn)證了基于。深度學(xué)習(xí)的圖像語(yǔ)義理解和分類(lèi)方法的有效性和優(yōu)越性同時(shí),將實(shí)驗(yàn)與多種傳統(tǒng)分類(lèi)方法做了對(duì)比,實(shí)驗(yàn)結(jié)果顯示出該算法具有較高的分類(lèi)能力。關(guān)鍵詞:圖像分類(lèi);深度學(xué)習(xí);線(xiàn)性解碼器;Softmax回歸模型IAbstrad:WiththeviorousdevelomentofInternetandmultimediatechnoloa
8、swellasgpgy,therisingpopularhyofsocialmedia,moreandmorepeoplebegin化upload,downloadandshareimagesKsourcesintheInternet.Imagedataraduallbecomeanimortantgypmediumofinfo