基于-深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分類

基于-深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分類

ID:47842914

大小:1.19 MB

頁數(shù):25頁

時(shí)間:2019-11-24

基于-深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分類_第1頁
基于-深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分類_第2頁
基于-深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分類_第3頁
基于-深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分類_第4頁
基于-深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分類_第5頁
資源描述:

《基于-深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分類》由會員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫

1、SHANGHAIJIAOTONGUNIVERSITY論文題目:基于卷積神經(jīng)網(wǎng)絡(luò)的自然圖像分類技術(shù)研究姓名:高小寧專業(yè):控制科學(xué)與工程基于卷積神經(jīng)網(wǎng)絡(luò)的自然圖像分類技術(shù)研究摘要:卷積神經(jīng)網(wǎng)絡(luò)已在圖像分類領(lǐng)域取得了很好的效果,但其網(wǎng)絡(luò)結(jié)構(gòu)及參數(shù)的選擇對圖像分類的效果和效率有較大的影響。為改善卷積網(wǎng)絡(luò)的圖像分類性能,本文對卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行了詳細(xì)的理論分析,并通過大量的對比實(shí)驗(yàn),得出了影響卷積網(wǎng)絡(luò)性能的因素。結(jié)合理論分析及對比實(shí)驗(yàn),本文設(shè)計(jì)了一個(gè)卷積層數(shù)為8層的深度卷積網(wǎng)絡(luò),并結(jié)合BatchNorm

2、alization、dropout等方法,在CIFAR-10數(shù)據(jù)集上取得了88.1%的分類精度,有效地提高了卷積神經(jīng)網(wǎng)絡(luò)的分類效果。關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò),圖像分類,BatchNormalization,DropoutResearchonNaturalImageClassificationBasedonConvolutionNeuralNetworkAbstract:Convolutionneuralnetworkhasachievedverygoodresultsinimageclassific

3、ation,butitsnetworkstructureandthechoiceofparametershaveagreaterimpactonimageclassificationefficiencyandefficiency.Inordertoimprovetheimageclassificationperformanceoftheconvolutionnetwork,aconvolutionalneuralnetworkmodelisanalyzedindetail,andalargenu

4、mberofcontrastiveexperimentsareconductedtogetthefactorsthatinfluencetheperformanceoftheconvolutionnetwork.Combiningthetheoryanalysisandcontrastexperiment,aconvolutionlayerdepthconvolutionnetworkwith8layersisdesigned.CombinedwithBatchNormalizationandd

5、ropout,88.1%classificationaccuracyisachievedonCIFAR-10dataset.Whichimprovestheclassificationeffectofconvolutionneuralnetwork.KeyWords:Convolutionneuralnetwork(CNN),imageclassification,BatchNormalization,Dropout目錄基于卷積神經(jīng)網(wǎng)絡(luò)的自然圖像分類技術(shù)研究-1-1引言-3-2卷積神經(jīng)網(wǎng)絡(luò)的模型

6、分析-4-2.1網(wǎng)絡(luò)基本拓?fù)浣Y(jié)構(gòu)-4-2.2卷積和池化-5-2.3激活函數(shù)-6-2.4Softmax分類器與代價(jià)函數(shù)-7-2.5學(xué)習(xí)算法-8-2.6Dropout-10-2.7BatchNormalization-11-3模型設(shè)計(jì)與實(shí)驗(yàn)分析-12-3.1CIFAR-10數(shù)據(jù)集-12-3.2模型設(shè)計(jì)-13-3.3實(shí)驗(yàn)結(jié)果與分析-15-4結(jié)論-22-參考文獻(xiàn)-23-1引言1986年,Rumelhart等提出人工神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation,BP),掀起了神經(jīng)網(wǎng)絡(luò)在機(jī)器學(xué)習(xí)中

7、的研究熱潮。但是由于BP神經(jīng)網(wǎng)絡(luò)存在容易發(fā)生過擬合、訓(xùn)練時(shí)間長的缺陷,90年代興起的基于統(tǒng)計(jì)學(xué)習(xí)理論的支持向量機(jī)具有很強(qiáng)的小樣本學(xué)習(xí)能力。學(xué)習(xí)效果也優(yōu)于BP神經(jīng)網(wǎng)絡(luò),導(dǎo)致了神經(jīng)網(wǎng)絡(luò)的研究再次跌入低估。2006年,Hinton等人在Science上提出了深度學(xué)習(xí).這篇文章的兩個(gè)主要觀點(diǎn)是:1)多隱層的人工神經(jīng)網(wǎng)絡(luò)具有優(yōu)異的特征學(xué)習(xí)能力,學(xué)習(xí)到的數(shù)據(jù)更能反映數(shù)據(jù)的本質(zhì)特征,有利于可視化或分類;2)深度神經(jīng)網(wǎng)絡(luò)在訓(xùn)練上的難度,可以通過逐層無監(jiān)督訓(xùn)練有效克服。理論研究表明為了學(xué)習(xí)到可表示高層抽象特征的復(fù)

8、雜函數(shù),需要設(shè)計(jì)深度網(wǎng)絡(luò)。深度網(wǎng)絡(luò)由多層非線性算子構(gòu)成,典型設(shè)計(jì)是具有多層隱節(jié)點(diǎn)的神經(jīng)網(wǎng)絡(luò)。但是隨著網(wǎng)絡(luò)層數(shù)的加大,如何搜索深度結(jié)構(gòu)的參數(shù)空間成為具有挑戰(zhàn)性的任務(wù)。近年來,深度學(xué)習(xí)取得成功的主要原因有:1)在訓(xùn)練數(shù)據(jù)上,大規(guī)模訓(xùn)練數(shù)據(jù)的出現(xiàn)(如ImageNet),為深度學(xué)習(xí)提供了好的訓(xùn)練資源;2)計(jì)算機(jī)硬件的飛速發(fā)展(特別是GPU的出現(xiàn))使得訓(xùn)練大規(guī)模神經(jīng)網(wǎng)絡(luò)成為可能。卷積神經(jīng)網(wǎng)絡(luò)(Convolutionalneuralnetworks,CNN)是一種帶有卷積結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),卷積結(jié)構(gòu)采用權(quán)值共享

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動畫的文件,查看預(yù)覽時(shí)可能會顯示錯(cuò)亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時(shí)聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請聯(lián)系客服處理。