資源描述:
《基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分類》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫。
1、《人工神經(jīng)網(wǎng)》課程論文SHANGHAIJIAOTONGUNIVERSITY論文題目:基于卷積神經(jīng)網(wǎng)絡(luò)的自然圖像分類技術(shù)研究-28-《人工神經(jīng)網(wǎng)》課程論文基于卷積神經(jīng)網(wǎng)絡(luò)的自然圖像分類技術(shù)研究摘要:卷積神經(jīng)網(wǎng)絡(luò)已在圖像分類領(lǐng)域取得了很好的效果,但其網(wǎng)絡(luò)結(jié)構(gòu)及參數(shù)的選擇對圖像分類的效果和效率有較大的影響。為改善卷積網(wǎng)絡(luò)的圖像分類性能,本文對卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行了詳細(xì)的理論分析,并通過大量的對比實驗,得出了影響卷積網(wǎng)絡(luò)性能的因素。結(jié)合理論分析及對比實驗,本文設(shè)計了一個卷積層數(shù)為8層的深度卷積網(wǎng)絡(luò),并結(jié)合Batch
2、Normalization、dropout等方法,在CIFAR-10數(shù)據(jù)集上取得了88.1%的分類精度,有效地提高了卷積神經(jīng)網(wǎng)絡(luò)的分類效果。關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò),圖像分類,BatchNormalization,DropoutResearchonNaturalImageClassificationBasedonConvolutionNeuralNetworkAbstract:Convolutionneuralnetworkhasachievedverygoodresultsinimageclassificat
3、ion,butitsnetworkstructureandthechoiceofparametershaveagreaterimpactonimageclassificationefficiencyandefficiency.Inordertoimprovetheimageclassificationperformanceoftheconvolutionnetwork,aconvolutionalneuralnetworkmodelisanalyzedindetail,andalargenumberofco
4、ntrastiveexperimentsareconductedtogetthefactorsthatinfluencetheperformanceoftheconvolutionnetwork.Combiningthetheoryanalysisandcontrastexperiment,aconvolutionlayerdepthconvolutionnetworkwith8layersisdesigned.CombinedwithBatchNormalizationanddropout,88.1%cl
5、assificationaccuracyisachievedonCIFAR-10dataset.Whichimprovestheclassificationeffectofconvolutionneuralnetwork.KeyWords:Convolutionneuralnetwork(CNN),imageclassification,Batch-28-《人工神經(jīng)網(wǎng)》課程論文Normalization,Dropout目錄基于卷積神經(jīng)網(wǎng)絡(luò)的自然圖像分類技術(shù)研究-1-1引言-3-2卷積神經(jīng)網(wǎng)絡(luò)的模型分析-4-
6、2.1網(wǎng)絡(luò)基本拓?fù)浣Y(jié)構(gòu)-4-2.2卷積和池化-5-2.3激活函數(shù)-6-2.4Softmax分類器與代價函數(shù)-7-2.5學(xué)習(xí)算法-8-2.6Dropout-10-2.7BatchNormalization-11-3模型設(shè)計與實驗分析-12-3.1CIFAR-10數(shù)據(jù)集-12-3.2模型設(shè)計-13-3.3實驗結(jié)果與分析-15-4結(jié)論-22--28-《人工神經(jīng)網(wǎng)》課程論文參考文獻(xiàn)-23-1引言1986年,Rumelhart等提出人工神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation,BP),掀起了神經(jīng)網(wǎng)絡(luò)在機
7、器學(xué)習(xí)中的研究熱潮。但是由于BP神經(jīng)網(wǎng)絡(luò)存在容易發(fā)生過擬合、訓(xùn)練時間長的缺陷,90年代興起的基于統(tǒng)計學(xué)習(xí)理論的支持向量機具有很強的小樣本學(xué)習(xí)能力。學(xué)習(xí)效果也優(yōu)于BP神經(jīng)網(wǎng)絡(luò),導(dǎo)致了神經(jīng)網(wǎng)絡(luò)的研究再次跌入低估。2006年,Hinton等人在Science上提出了深度學(xué)習(xí).這篇文章的兩個主要觀點是:1)多隱層的人工神經(jīng)網(wǎng)絡(luò)具有優(yōu)異的特征學(xué)習(xí)能力,學(xué)習(xí)到的數(shù)據(jù)更能反映數(shù)據(jù)的本質(zhì)特征,有利于可視化或分類;2)深度神經(jīng)網(wǎng)絡(luò)在訓(xùn)練上的難度,可以通過逐層無監(jiān)督訓(xùn)練有效克服。理論研究表明為了學(xué)習(xí)到可表示高層抽象特征的復(fù)雜函
8、數(shù),需要設(shè)計深度網(wǎng)絡(luò)。深度網(wǎng)絡(luò)由多層非線性算子構(gòu)成,典型設(shè)計是具有多層隱節(jié)點的神經(jīng)網(wǎng)絡(luò)。但是隨著網(wǎng)絡(luò)層數(shù)的加大,如何搜索深度結(jié)構(gòu)的參數(shù)空間成為具有挑戰(zhàn)性的任務(wù)。近年來,深度學(xué)習(xí)取得成功的主要原因有:-28-《人工神經(jīng)網(wǎng)》課程論文1)在訓(xùn)練數(shù)據(jù)上,大規(guī)模訓(xùn)練數(shù)據(jù)的出現(xiàn)(如ImageNet),為深度學(xué)習(xí)提供了好的訓(xùn)練資源;2)計算機硬件的飛速發(fā)展(特別是GPU的出現(xiàn))使得訓(xùn)練大規(guī)模神經(jīng)網(wǎng)絡(luò)成為可能。卷積神經(jīng)網(wǎng)絡(luò)(Co