基于深度學(xué)習(xí)的人臉圖像分析與研究

基于深度學(xué)習(xí)的人臉圖像分析與研究

ID:35067170

大?。?.50 MB

頁數(shù):77頁

時(shí)間:2019-03-17

基于深度學(xué)習(xí)的人臉圖像分析與研究_第1頁
基于深度學(xué)習(xí)的人臉圖像分析與研究_第2頁
基于深度學(xué)習(xí)的人臉圖像分析與研究_第3頁
基于深度學(xué)習(xí)的人臉圖像分析與研究_第4頁
基于深度學(xué)習(xí)的人臉圖像分析與研究_第5頁
資源描述:

《基于深度學(xué)習(xí)的人臉圖像分析與研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。

1、i種成A杳矣UNIVERSITYOF巨LECTRONICscIENCEANDT巨CHNOLOGYOFCHINA碩±學(xué)位論文IMASTERTHESIS.I'?■I:/\嫌,;::-^\..專/7\‘VX?嚴(yán)伊?盧,=..7.神1,■,一,可-::冉.啼'論文題目基于深度學(xué)習(xí)的人臉圖像分析與研究■—.學(xué)科專業(yè)計(jì)算機(jī)巧用技術(shù)學(xué)號(hào)201321060346作者姓名張凱薛

2、指學(xué)教師吳洪副教授?.-'‘社''占-'吉'.^式::;:V:;;巧;i遜義謹(jǐn)議..4縫講賴幫'?-‘‘:一占公.、;獨(dú)劍性聲明本人聲明所呈交的學(xué)位論文是本人在導(dǎo)師指導(dǎo)下進(jìn)行的研究工作及取得的研究成果。據(jù)我所知,除了文中特別加標(biāo)注和致謝的地方夕h論文中不包含其他人己經(jīng)發(fā)表或撰寫過的研究成果,也不包含為獲得電子科技大學(xué)或其它教育機(jī)構(gòu)的學(xué)位或證書而使用過的材料。與我一同工作的同志對(duì)本研究所做的任何貢獻(xiàn)均已在論義中作了明確的說明并表示謝意。口作者

3、簽名:旅撕雌曰期:>年曰___Jr月論文使用授權(quán)本學(xué)位論文作者完全了解電子科技大學(xué)有關(guān)保留、使用學(xué)位論文的規(guī)定,有權(quán)保留并向國家有關(guān)部口或機(jī)送論文的,構(gòu)交復(fù)印件和磁盤允許論義被查閱和借閱。本人電子學(xué)論義授權(quán)科技大可W將學(xué)位的全部或部分內(nèi)編入有關(guān)數(shù)據(jù)、容庫進(jìn)行檢索,用影可采印縮印或掃描、匯。等復(fù)制手段保存編學(xué)位論文(保密的學(xué)位論文在解密后應(yīng)遭守此規(guī)定)冶名:導(dǎo)I作者簽師簽名:_。曰:年期!曰月^分類號(hào)密級(jí)注1UDC學(xué)位論文基于深度學(xué)習(xí)的人臉圖像分析與研究(題名和副題名)

4、張凱皓(作者姓名)指導(dǎo)教師吳洪副教授電子科技大學(xué)成都(姓名、職稱、單位名稱)申請(qǐng)學(xué)位級(jí)別碩士學(xué)科專業(yè)計(jì)算機(jī)應(yīng)用技術(shù)提交論文日期2016.03論文答辯日期2016.05學(xué)位授予單位和日期電子科技大學(xué)2016年6月27日答辯委員會(huì)主席評(píng)閱人注1:注明《國際十進(jìn)分類法UDC》的類號(hào)。FACIALANALYSISVIADEEPLEARNINGMETHODSAMasterThesisSubmittedtoUniversityofElectronicScienceandTechnologyofChinaMajor:Comput

5、erAppliedTechnologyAuthor:KaihaoZhangAdvisor:AssociateProfessorHongWuSchool:SchoolofComputerScience&Engineering摘要摘要人臉圖像分析作為計(jì)算機(jī)視覺領(lǐng)域中一個(gè)有著廣泛應(yīng)用前景的研究方法,吸引了越來越多人的研究興趣。本文我們將針對(duì)人臉圖像分析中的嚴(yán)重遮擋的人臉定位、基于人臉的親屬識(shí)別和笑臉識(shí)別這三個(gè)課題進(jìn)行研究。嚴(yán)重遮擋的人臉定位是人臉檢測中一個(gè)很有挑戰(zhàn)性的研究課題。傳統(tǒng)的方法一般是使用滑動(dòng)窗口機(jī)制,判斷窗口中

6、是否包含人臉來進(jìn)行判斷。本文提出了一種基于像素的定位策略,通過深度神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)對(duì)遮擋人臉的定位。圖片經(jīng)過一系列的卷積層和全連接層之后,通過一個(gè)softmax層完成對(duì)像素的判別,最后通過一個(gè)最小閉包操作完成人臉定位。該方法避免了滑動(dòng)窗口帶來的時(shí)間消耗,同時(shí)僅使用一個(gè)模型,因此可以實(shí)現(xiàn)快速的定位。實(shí)驗(yàn)表明,該方法既有很高的準(zhǔn)確率,又有非常快的檢測速度。根據(jù)人臉來進(jìn)行親屬識(shí)別是人臉圖像分析中一個(gè)新興并且有趣的研究方向。由于人臉圖像中蘊(yùn)含的親屬關(guān)系的復(fù)雜性,使用手動(dòng)設(shè)計(jì)的特征難以很好描述。本文提出了一種基于深度學(xué)習(xí)的親屬

7、識(shí)別算法。它不需要復(fù)雜的圖像預(yù)處理,通過深度學(xué)習(xí)建立強(qiáng)大的特征表示。此外,考慮到人臉關(guān)鍵區(qū)域?qū)τH屬識(shí)別的幫助,通過加入關(guān)鍵區(qū)域的因素來優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)。實(shí)驗(yàn)結(jié)果表明,我們的方法在兩個(gè)主流的親屬識(shí)別數(shù)據(jù)庫上,超過了當(dāng)前最好的公開實(shí)驗(yàn)結(jié)果。笑臉識(shí)別是表情識(shí)別中一個(gè)特殊的研究領(lǐng)域,有著廣泛的應(yīng)用領(lǐng)域。本文提出了一種基于深度神經(jīng)網(wǎng)絡(luò)的笑臉識(shí)別算法,它使用了兩種監(jiān)督信號(hào),一個(gè)是識(shí)別信號(hào),另一個(gè)是驗(yàn)證信號(hào)。通過它們,既可以減小相同表情之間的特征差別,又可以增加不同表情之間的特征區(qū)別。實(shí)驗(yàn)結(jié)果表明,在主流數(shù)據(jù)庫上,該方法取得了當(dāng)前最

8、好的準(zhǔn)確率。關(guān)鍵詞:深度學(xué)習(xí);人臉圖像分析;嚴(yán)重遮擋的人臉定位;親屬識(shí)別;笑臉識(shí)別IABSTRACTABSTRACTLongwiththedevelopmentofsocietyandcomputerequipments,facialanalysisbecomesamoreandmoreimportanttaskincomputervisionwithman

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無此問題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。