資源描述:
《基于-深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分類》由會員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫。
1、SHANGHAIJIAOTONGUNIVERSITY論文題目:基于卷積神經(jīng)網(wǎng)絡(luò)的自然圖像分類技術(shù)研究姓名:高小寧專業(yè):控制科學(xué)與工程基于卷積神經(jīng)網(wǎng)絡(luò)的自然圖像分類技術(shù)研究摘要:卷積神經(jīng)網(wǎng)絡(luò)已在圖像分類領(lǐng)域取得了很好的效果,但其網(wǎng)絡(luò)結(jié)構(gòu)及參數(shù)的選擇對圖像分類的效果和效率有較大的影響。為改善卷積網(wǎng)絡(luò)的圖像分類性能,本文對卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行了詳細(xì)的理論分析,并通過大量的對比實(shí)驗(yàn),得出了影響卷積網(wǎng)絡(luò)性能的因素。結(jié)合理論分析及對比實(shí)驗(yàn),本文設(shè)計(jì)了一個(gè)卷積層數(shù)為8層的深度卷積網(wǎng)絡(luò),并結(jié)合BatchNorm
2、alization、dropout等方法,在CIFAR-10數(shù)據(jù)集上取得了88.1%的分類精度,有效地提高了卷積神經(jīng)網(wǎng)絡(luò)的分類效果。關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò),圖像分類,BatchNormalization,DropoutResearchonNaturalImageClassificationBasedonConvolutionNeuralNetworkAbstract:Convolutionneuralnetworkhasachievedverygoodresultsinimageclassific
3、ation,butitsnetworkstructureandthechoiceofparametershaveagreaterimpactonimageclassificationefficiencyandefficiency.Inordertoimprovetheimageclassificationperformanceoftheconvolutionnetwork,aconvolutionalneuralnetworkmodelisanalyzedindetail,andalargenu
4、mberofcontrastiveexperimentsareconductedtogetthefactorsthatinfluencetheperformanceoftheconvolutionnetwork.Combiningthetheoryanalysisandcontrastexperiment,aconvolutionlayerdepthconvolutionnetworkwith8layersisdesigned.CombinedwithBatchNormalizationandd
5、ropout,88.1%classificationaccuracyisachievedonCIFAR-10dataset.Whichimprovestheclassificationeffectofconvolutionneuralnetwork.KeyWords:Convolutionneuralnetwork(CNN),imageclassification,BatchNormalization,Dropout目錄基于卷積神經(jīng)網(wǎng)絡(luò)的自然圖像分類技術(shù)研究-1-1引言-3-2卷積神經(jīng)網(wǎng)絡(luò)的模型
6、分析-4-2.1網(wǎng)絡(luò)基本拓?fù)浣Y(jié)構(gòu)-4-2.2卷積和池化-5-2.3激活函數(shù)-6-2.4Softmax分類器與代價(jià)函數(shù)-7-2.5學(xué)習(xí)算法-8-2.6Dropout-10-2.7BatchNormalization-11-3模型設(shè)計(jì)與實(shí)驗(yàn)分析-12-3.1CIFAR-10數(shù)據(jù)集-12-3.2模型設(shè)計(jì)-13-3.3實(shí)驗(yàn)結(jié)果與分析-15-4結(jié)論-22-參考文獻(xiàn)-23-1引言1986年,Rumelhart等提出人工神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation,BP),掀起了神經(jīng)網(wǎng)絡(luò)在機(jī)器學(xué)習(xí)中
7、的研究熱潮。但是由于BP神經(jīng)網(wǎng)絡(luò)存在容易發(fā)生過擬合、訓(xùn)練時(shí)間長的缺陷,90年代興起的基于統(tǒng)計(jì)學(xué)習(xí)理論的支持向量機(jī)具有很強(qiáng)的小樣本學(xué)習(xí)能力。學(xué)習(xí)效果也優(yōu)于BP神經(jīng)網(wǎng)絡(luò),導(dǎo)致了神經(jīng)網(wǎng)絡(luò)的研究再次跌入低估。2006年,Hinton等人在Science上提出了深度學(xué)習(xí).這篇文章的兩個(gè)主要觀點(diǎn)是:1)多隱層的人工神經(jīng)網(wǎng)絡(luò)具有優(yōu)異的特征學(xué)習(xí)能力,學(xué)習(xí)到的數(shù)據(jù)更能反映數(shù)據(jù)的本質(zhì)特征,有利于可視化或分類;2)深度神經(jīng)網(wǎng)絡(luò)在訓(xùn)練上的難度,可以通過逐層無監(jiān)督訓(xùn)練有效克服。理論研究表明為了學(xué)習(xí)到可表示高層抽象特征的復(fù)
8、雜函數(shù),需要設(shè)計(jì)深度網(wǎng)絡(luò)。深度網(wǎng)絡(luò)由多層非線性算子構(gòu)成,典型設(shè)計(jì)是具有多層隱節(jié)點(diǎn)的神經(jīng)網(wǎng)絡(luò)。但是隨著網(wǎng)絡(luò)層數(shù)的加大,如何搜索深度結(jié)構(gòu)的參數(shù)空間成為具有挑戰(zhàn)性的任務(wù)。近年來,深度學(xué)習(xí)取得成功的主要原因有:1)在訓(xùn)練數(shù)據(jù)上,大規(guī)模訓(xùn)練數(shù)據(jù)的出現(xiàn)(如ImageNet),為深度學(xué)習(xí)提供了好的訓(xùn)練資源;2)計(jì)算機(jī)硬件的飛速發(fā)展(特別是GPU的出現(xiàn))使得訓(xùn)練大規(guī)模神經(jīng)網(wǎng)絡(luò)成為可能。卷積神經(jīng)網(wǎng)絡(luò)(Convolutionalneuralnetworks,CNN)是一種帶有卷積結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),卷積結(jié)構(gòu)采用權(quán)值共享