資源描述:
《基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情和性別識(shí)別》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫(kù)。
1、密級(jí):保密期限:導(dǎo)殘乂榮碩±學(xué)位論文基于卷積神經(jīng)網(wǎng)絡(luò)的人撿表情和性別識(shí)別FacialExpressionandGenderRecognitionBasedonConvolutionalNeuralNetworks學(xué)號(hào)P13201096姓名產(chǎn)文濤學(xué)位類別工學(xué)碩±?與信左SS蓋信號(hào),富處理指導(dǎo)教師屈磊教授完成時(shí)間2016年5月客黛茲游獲'’-'.::.V..-4^、:":;茜請(qǐng)斟巧{;:獨(dú)創(chuàng)性聲明本人聲明所呈交的學(xué)位論文
2、是本人在導(dǎo)師指導(dǎo)下進(jìn)行的研究工作及取得的^1,。據(jù)我所知義標(biāo)注和致謝的地方外論文中不包含其研究成果,除了文中特別加他人己經(jīng)發(fā)表或撰寫(xiě)過(guò)的研究成果,也不包含為獲得安徽大學(xué)或其他教育機(jī)構(gòu)的一學(xué)位或證書(shū)而使用過(guò)的材料。與我同工作的同志對(duì)本研究所做的任何貢獻(xiàn)均已在論文中作了明確的說(shuō)明并表示謝意。學(xué)位論文作者簽葦:簽字曰期:〇年^只曰)(矣^學(xué)位論文版權(quán)使用授權(quán)書(shū)本學(xué)位論文作者完全了解安徽大學(xué)有關(guān)保留、使用學(xué)位論文的規(guī)定,有權(quán)保留并向國(guó)家有關(guān)部口或機(jī)構(gòu)送交論文的復(fù)印件和磁盤(pán),允許論文被查閱和借閱。本人授權(quán)安徽大
3、學(xué)可レ義將學(xué)位論文的全部或部分內(nèi)容編入有關(guān)數(shù)據(jù)庫(kù)進(jìn)行檢索,可L義采用影印、縮印或掃描等復(fù)制手段保存、匯編學(xué)位論文。(保密的學(xué)位論文在解密后適用本授權(quán)書(shū))學(xué)位論文作者簽卷:導(dǎo)師簽名:'簽字曰期:>年月曰簽字曰期:年月曰1火(>W王j谷y安徽大學(xué)碩古學(xué)位論文摘要城巧懶巧人臉包含性別、表情、身份、年齡等大量信息,在公共社會(huì)安全、經(jīng)濟(jì)財(cái)產(chǎn)安全、軍事、反恐刑偵、人機(jī)交互等電子信息安全領(lǐng)域發(fā)展的迫切驅(qū)動(dòng)下,人臉表情和性別識(shí)別技術(shù)已經(jīng)成為一項(xiàng)極具發(fā)展?jié)摿Φ那把丶夹g(shù),也是當(dāng)前計(jì)算機(jī)視、覺(jué)領(lǐng)域的研究熱點(diǎn)。讓計(jì)
4、算機(jī)具有人的智能,代替人類進(jìn)行記憶識(shí)別,實(shí)現(xiàn)真正的智能時(shí)代具有十分重要的應(yīng)用價(jià)值。然而人臉表情和性別識(shí)別技術(shù)也是計(jì)算機(jī)視覺(jué)領(lǐng)域的難點(diǎn)所在,其主要原因是人臉圖像在獲取過(guò)程中,受到光照、表情、一姿態(tài)、遮擋物等環(huán)境因素W及拍攝行為等因素的影響。因而,個(gè)出色的人臉表情和性別識(shí)別算法應(yīng)該對(duì)這些因素不敏感。卷積神經(jīng)網(wǎng)絡(luò)是一種新型的神經(jīng)網(wǎng)絡(luò),它將傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)技術(shù)相結(jié)合,具有局部感受野區(qū)域、層次結(jié)構(gòu)化、特征提取和分類過(guò)程相結(jié)合的,在圖像處理領(lǐng)域取得了巨大的成功全局訓(xùn)練特點(diǎn)。卷積神經(jīng)網(wǎng)絡(luò)主要有兩個(gè)特一一性,第個(gè)
5、是神經(jīng)元之間采用局部連接策略,第二個(gè)是同層之間的神經(jīng)元權(quán)值共享,采取局部連接和權(quán)值共享的網(wǎng)絡(luò)結(jié)構(gòu)降低了模型本身的復(fù)雜度,減少了需要訓(xùn)練的參數(shù)個(gè)數(shù),這種網(wǎng)絡(luò)結(jié)構(gòu)可W獲得某種程度上的平移、尺度和形變不變性。本論文的主要工作如下:1、首先系統(tǒng)的闡述了當(dāng)前人臉表情識(shí)別和性別識(shí)別的國(guó)內(nèi)外研究現(xiàn)狀,概述了深度學(xué)習(xí)的起源W及取得的一些成果。然后介紹了神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程,著重介紹了卷積神經(jīng)網(wǎng)絡(luò)的算法原理和經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu)。2、本論文主要研究了基于卷積神經(jīng)網(wǎng)絡(luò)下的人臉表情和性別識(shí)別。針對(duì)表一情識(shí)別,首先根據(jù)人臉表情任務(wù)的特點(diǎn)
6、exNe,修改了Alt網(wǎng)絡(luò)結(jié)構(gòu),設(shè)計(jì)了個(gè)新的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并在網(wǎng)絡(luò)中添加了批規(guī)范化層使得準(zhǔn)確率有3%左右,的提升,,;然后根據(jù)表情識(shí)別采用的數(shù)據(jù)集樣本數(shù)量采用了微調(diào)的訓(xùn)練機(jī)制在GoogLeNet上,與從頭訓(xùn)練的方式相比,準(zhǔn)確率有了2%左右的提升,并且在使用VGGNet進(jìn)行微調(diào)時(shí),準(zhǔn)確率達(dá)到了最高的71.27%,證明了針對(duì)本文使用的數(shù)據(jù)集,微調(diào)的策略優(yōu)于重新訓(xùn)練在利用GooeNet,;gL進(jìn)行微調(diào)實(shí)驗(yàn)時(shí)還比I安徽大學(xué)碩±學(xué)位論文基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情和性別識(shí)別較了Hinge損失函數(shù)和Softma
7、x損失函數(shù)的性能,發(fā)現(xiàn)后者優(yōu)化前者;最后針對(duì)一,,現(xiàn)在的研究趨勢(shì),設(shè)計(jì)了個(gè)多網(wǎng)絡(luò)來(lái)進(jìn)行融合通過(guò)實(shí)驗(yàn)發(fā)現(xiàn)在較小的數(shù)據(jù)t,多網(wǎng)絡(luò)的性能比單網(wǎng)絡(luò)差e,集上。針對(duì)性別識(shí)別,在YGGN的基礎(chǔ)上設(shè)計(jì)一了個(gè)3層的卷積神經(jīng)網(wǎng)絡(luò),在adience數(shù)據(jù)集上,準(zhǔn)確率達(dá)到了90.82%,在mygender數(shù)據(jù)集上準(zhǔn)確率達(dá)到了97.10%;然后利用YGGNet在mygender數(shù)據(jù)集上進(jìn)行微調(diào),準(zhǔn)確率達(dá)到了99.44%。3、本文使用卷積神經(jīng)網(wǎng)絡(luò)在人臉表情和性別數(shù)據(jù)集上訓(xùn)練得到的模型,然后在Windows7平臺(tái)上利用出化和Cafe等
8、工具搭建了人臉表情和性別識(shí)別系統(tǒng),可W用該系統(tǒng)實(shí)時(shí)準(zhǔn)確地進(jìn)行檢測(cè)識(shí)別,并對(duì)接下來(lái)的工作進(jìn)行了展望。關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);微調(diào);表情識(shí)別;性別識(shí)別II安徽大學(xué)碩j: