深度網(wǎng)絡(luò)模型壓縮及其在人臉識別的應(yīng)用

深度網(wǎng)絡(luò)模型壓縮及其在人臉識別的應(yīng)用

ID:37063629

大?。?.34 MB

頁數(shù):64頁

時間:2019-05-16

深度網(wǎng)絡(luò)模型壓縮及其在人臉識別的應(yīng)用_第1頁
深度網(wǎng)絡(luò)模型壓縮及其在人臉識別的應(yīng)用_第2頁
深度網(wǎng)絡(luò)模型壓縮及其在人臉識別的應(yīng)用_第3頁
深度網(wǎng)絡(luò)模型壓縮及其在人臉識別的應(yīng)用_第4頁
深度網(wǎng)絡(luò)模型壓縮及其在人臉識別的應(yīng)用_第5頁
資源描述:

《深度網(wǎng)絡(luò)模型壓縮及其在人臉識別的應(yīng)用》由會員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫

1、工程碩士學(xué)位論文深度網(wǎng)絡(luò)模型壓縮及其在人臉識別的應(yīng)用作者姓名黎李強(qiáng)工程領(lǐng)域電子與通信工程校內(nèi)指導(dǎo)教師胡永健教授校外指導(dǎo)教師梁添才教授級高工所在學(xué)院電子與信息學(xué)院論文提交日期2018年4月DeepNeuralNetworkModelCompressionanditsApplicationinFaceRecognitionADissertationSubmittedfortheDegreeofMasterCandidate:LiLiqiangSupervisor:Prof.HuYongjianSouthChinaUniversityofTechnologyGuangzho

2、u,China摘要深度學(xué)習(xí)在圖像、語音、自然語言處理等眾多領(lǐng)域的應(yīng)用取得巨大的成功,但深度網(wǎng)絡(luò)模型因其復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)和大量的網(wǎng)絡(luò)參數(shù),需要很多的運(yùn)算量和存儲空間開銷,難以在存儲和計(jì)算資源有限的硬件設(shè)備上進(jìn)行部署,尤其是在移動設(shè)備。因此,如何在保證深度網(wǎng)絡(luò)模型準(zhǔn)確度不下降的前提下,通過對網(wǎng)絡(luò)模型進(jìn)行精簡處理,以減少對硬件設(shè)備計(jì)算能力的要求和存儲資源的開銷,這是一個具有重要意義的研究問題。本文主要針對深度網(wǎng)絡(luò)模型壓縮進(jìn)行研究,并將其應(yīng)用于深度人臉網(wǎng)絡(luò)模型,具體工作如下:1.網(wǎng)絡(luò)剪枝是一種用于去除網(wǎng)絡(luò)冗余連接以減少網(wǎng)絡(luò)冗余計(jì)算量的技術(shù),該技術(shù)的關(guān)鍵是明確網(wǎng)絡(luò)冗余連接,而目前

3、關(guān)于網(wǎng)絡(luò)冗余連接沒有準(zhǔn)確的定義。雖然網(wǎng)絡(luò)連接的權(quán)值大小與網(wǎng)絡(luò)重要連接相關(guān),但前提需要確定網(wǎng)絡(luò)重要連接的閾值。為了解決現(xiàn)有網(wǎng)絡(luò)剪枝方法在確定網(wǎng)絡(luò)剪枝閾值和選取重要連接權(quán)重方面的不足,本文基于網(wǎng)絡(luò)初始狀態(tài)和最終狀態(tài)的差異,提出了一種新的確定有效網(wǎng)絡(luò)剪枝閾值和選取網(wǎng)絡(luò)重要連接權(quán)重的方法。2.與目前的人臉網(wǎng)絡(luò)模型依靠構(gòu)造復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)或非公開人臉數(shù)據(jù)集實(shí)現(xiàn)優(yōu)越性能不同,本文使用殘差網(wǎng)絡(luò)結(jié)構(gòu)與MFM激活函數(shù)設(shè)計(jì)相對小型的人臉網(wǎng)絡(luò)模型,在常用公開的人臉數(shù)據(jù)上進(jìn)行訓(xùn)練,在LFW人臉數(shù)據(jù)集上測試,取得較高的準(zhǔn)確度。本文通過構(gòu)造新的ResNet+MFM網(wǎng)絡(luò)模塊,以提升網(wǎng)絡(luò)的特征提取能力

4、,同時為了有效地提升網(wǎng)絡(luò)準(zhǔn)確度,本文采用A-Softmax損失函數(shù)進(jìn)行網(wǎng)絡(luò)模型的訓(xùn)練。3.為了減少網(wǎng)絡(luò)模型參數(shù)對存儲空間的開銷,通過將本文的冗余權(quán)重去除方法與權(quán)重量化和哈夫曼編碼壓縮相結(jié)合,對本文的人臉網(wǎng)絡(luò)模型進(jìn)行深度網(wǎng)絡(luò)模型壓縮,以實(shí)現(xiàn)網(wǎng)絡(luò)模型冗余權(quán)重的去除和存儲空間的減少。關(guān)鍵詞:深度學(xué)習(xí);深度網(wǎng)絡(luò)模型壓縮;人臉識別;網(wǎng)絡(luò)剪枝IABSTRACTDeeplearninghasachievedgreatsuccessinapplicationssuchasimage,speech,andnaturallanguageprocessing,butdeepneuralne

5、tworksmodelsrequirealotofcomputationalandstoragespaceoverheadduetotheircomplexnetworkstructureandalargenumberofnetworkparameters.Itishardtodeeployonhardwaredeviceswithlimitedstorageandcomputingresources,especiallyonmobiledevices.Therefore,onthepremiseofensuringthattheaccuracyofthedeepne

6、uralnetworksmodeldoesnotdecrease,thenetworkmodelcanbestreamlinedtoreducetherequirementsonthecomputingcapacityofhardwaredevicesandtheoverheadofstorageresources,whichisanimportantresearchissue.Thispaperfocusesonthedeepneuralnetworksmodelcompressionresearch,andappliesittothedeepfacenetwork

7、model,thespecificworkisasfollows:1.Networkpruningisatechnologyusedtoremoveredundantconnectionsofthenetworktoreducetheamountofnetworkredundancycalculation.Thekeyofthistechnologyistodefinethenetworkredundantconnections,butatpresent,thereisnoaccuratedefinitionofnetworkredundantcon

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動畫的文件,查看預(yù)覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯誤,付費(fèi)完成后未能成功下載的用戶請聯(lián)系客服處理。