基于深度學(xué)習(xí)的人臉識(shí)別

基于深度學(xué)習(xí)的人臉識(shí)別

ID:35067137

大小:6.28 MB

頁(yè)數(shù):64頁(yè)

時(shí)間:2019-03-17

基于深度學(xué)習(xí)的人臉識(shí)別_第1頁(yè)
基于深度學(xué)習(xí)的人臉識(shí)別_第2頁(yè)
基于深度學(xué)習(xí)的人臉識(shí)別_第3頁(yè)
基于深度學(xué)習(xí)的人臉識(shí)別_第4頁(yè)
基于深度學(xué)習(xí)的人臉識(shí)別_第5頁(yè)
資源描述:

《基于深度學(xué)習(xí)的人臉識(shí)別》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫(kù)

1、乂連謹(jǐn)是大聲DALIANUNIVERSITYOFTECHNOLOGY損王享恆巧交MASTE民ALDISSERTATION,,‘'鶏古V;基于深度學(xué)習(xí)的人臉棚?。剩崳姡睒I(yè)雄學(xué)科專業(yè)___胃福運(yùn)作者姓名指導(dǎo)教師2答辯日期__馬碩±學(xué)位論文基于深度學(xué)習(xí)的人臉識(shí)別FaceReconitionbasedonDeeLearningpg作者姓名:程福運(yùn).學(xué)科、專業(yè);工業(yè)工程-學(xué)號(hào):21304148指導(dǎo)教師;蘇鐵明講師完成日期:2016年5月

2、乂途巧義乂緣Dalia打Universityof了echnology大連理工大學(xué)學(xué)位論文獨(dú)創(chuàng)性聲明作者鄭重聲明:所呈交的學(xué)位論文,是本人在導(dǎo)師的指導(dǎo)下進(jìn)行研究>工作所取得的成果。盡我所知,除文中己經(jīng)注明引用內(nèi)容和致謝的地方外,本論文不包含其他個(gè)人或集體己經(jīng)發(fā)表的研究成果,也不包含其他已申請(qǐng)學(xué)位或其他用途使用過的成果一。與我同工作的同志對(duì)本研究所做的賈獻(xiàn)均巴在論義中做了明確的說明并表示了謝意。若有不實(shí)之處,本人愿意承擔(dān)相關(guān)法律責(zé)任。學(xué)位論文題目:秦寺叛接終3成入艇皆、城.作者簽名:泉痛垃日期=aoi/年

3、<月八日.大連理工大學(xué)碩±學(xué)位論文摘要傳統(tǒng)的人臉識(shí)別方法多采用淺層的結(jié)構(gòu)提取人臉圖像特征。這類方法提取人臉圖像內(nèi)涵特征的能力有限,其識(shí)別效果也難令人滿意。隨著認(rèn)知科學(xué)和腦科學(xué)的發(fā)展,為深。層網(wǎng)絡(luò)技術(shù)提供了新的視角和思路人們模擬人腦分層特征表達(dá)的結(jié)構(gòu),提出了多種深層網(wǎng)絡(luò)模型,逐。深層網(wǎng)絡(luò)采用非線性、多層網(wǎng)絡(luò)的結(jié)構(gòu)層提取人臉圖像的特征,該類方法提取的特征具有更強(qiáng)的抽象性和判別力,適用于復(fù)雜的分類問題。深度學(xué)習(xí)自提出一W來(lái),便吸引了眾多研究學(xué)者的關(guān)注,成為了模式識(shí)別領(lǐng)域的顆新星。本文將深度學(xué)習(xí)技術(shù)應(yīng)用于人臉識(shí)別,

4、進(jìn)行了W下H項(xiàng)工作:1.人臉姿態(tài)估測(cè)在人臉識(shí)別和人機(jī)交互中均有廣泛的應(yīng)用。鑒于梯度特征能夠很好地描述不同姿態(tài)圖像的差異,本文W灰度特征和梯度特征的組合特征為輸入來(lái)訓(xùn)練DBN網(wǎng)絡(luò)實(shí)現(xiàn)了人臉姿態(tài)的分類。本文構(gòu)建了H層的深度信念網(wǎng)絡(luò)(DeepBeliefNetwork,DBN-)模型,并對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行訓(xùn)練。在CASPEALRl人臉數(shù)據(jù)庫(kù)上進(jìn)行姿態(tài)分類實(shí)一地使用灰度特征為輸入進(jìn)行深度學(xué)習(xí)的方法相比驗(yàn),實(shí)驗(yàn)結(jié)果表明,與常規(guī)單,使用灰度和灰度差的組合特征為輸入取得了更優(yōu)的識(shí)別效果。2.本文分析了圖像灰度特征、LBP(LocalB

5、inaryPattern,LBP)特征和梯度特征在人臉表達(dá)上的優(yōu)缺點(diǎn),并將這H種互補(bǔ)性的特征進(jìn)行融合,提取更具魯棒性的特征。首先分別提取人臉圖像的灰度特征、LBP特征和梯度特征,然后構(gòu)建H種卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworkCNN)分別對(duì)灰度特征、LBP特征和梯度特征進(jìn)行降,維,,提取更具判別力的特征,最后將這H種更具判別力的特征進(jìn)行串接并通過PCA算法進(jìn)行降維、融合。在LFW人臉數(shù)據(jù)庫(kù)上進(jìn)行交叉驗(yàn)證實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,與基于單特征單網(wǎng)絡(luò)的特征提取方法相比,基于多特征多網(wǎng)絡(luò)的特征構(gòu)建方法

6、具有更好的識(shí)別效果。一3.本文提出了種W減小類內(nèi)特征波動(dòng)范圍為優(yōu)化目標(biāo)的CNN網(wǎng)絡(luò)微調(diào)方法。在與訓(xùn)練集CAS-WebFace人臉數(shù)據(jù)庫(kù)不重疊的LFW人臉數(shù)據(jù)庫(kù)和YTF人臉數(shù)據(jù)庫(kù)上進(jìn).行測(cè)試,其等誤差識(shí)別率分別提高了6.50%、404%。測(cè)試實(shí)驗(yàn)表明經(jīng)過微調(diào)的CNN網(wǎng)絡(luò)具有更強(qiáng)的泛化能力。關(guān)鍵詞:深度學(xué)習(xí);人臉姿態(tài)估測(cè);人臉識(shí)別--I基于深度學(xué)習(xí)的人臉識(shí)別FaceRecognitionbasedonDeeLearningpAbstractThetraditionalfacerecognit

7、io打pipelineusesshallowstructuretoextract化efeatureoffaceimage,whichhaslimibdabilitytoextracttheconnotationfeatureoffaceimaeandtheg,recognitionresultis打otsatisfactory.Withthedevelopme打tofcognitivescienceandbrainscience,itprovidesa打ewper

8、spectiveandpipelinefordeep打etworktechnolo

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無(wú)此問題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫(kù)負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無(wú)法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。