基于深度學(xué)習(xí)的人臉面部情感識(shí)別的研究

基于深度學(xué)習(xí)的人臉面部情感識(shí)別的研究

ID:34711267

大小:1.99 MB

頁數(shù):62頁

時(shí)間:2019-03-09

基于深度學(xué)習(xí)的人臉面部情感識(shí)別的研究_第1頁
基于深度學(xué)習(xí)的人臉面部情感識(shí)別的研究_第2頁
基于深度學(xué)習(xí)的人臉面部情感識(shí)別的研究_第3頁
基于深度學(xué)習(xí)的人臉面部情感識(shí)別的研究_第4頁
基于深度學(xué)習(xí)的人臉面部情感識(shí)別的研究_第5頁
資源描述:

《基于深度學(xué)習(xí)的人臉面部情感識(shí)別的研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。

1、碩士學(xué)位論文基于深度學(xué)習(xí)的人臉面部情感識(shí)別的研究RESEARCHONFACIALEXPRESSIONRECOGNITIONBASEDONDEEPNEURALNETWORKS劉元震哈爾濱工業(yè)大學(xué)2016年12月萬方數(shù)據(jù)國(guó)內(nèi)圖書分類號(hào):T391.4學(xué)校代碼:10213國(guó)際圖書分類號(hào):621.3密級(jí):公開工程碩士學(xué)位論文基于深度學(xué)習(xí)的人臉面部情感識(shí)別的研究碩士研究生:劉元震導(dǎo)師:張乃通教授申請(qǐng)學(xué)位:工程碩士學(xué)科:電子與通信工程所在單位:深圳研究生院答辯日期:2016年12月授予學(xué)位單位:哈爾濱工業(yè)大學(xué)萬方數(shù)據(jù)ClassifiedIndex:T391.4U.D.C:621.3Disserta

2、tionfortheMaster’sDegreeinEngineeringRESEARCHONFACIALEXPRESSIONRECOGNITIONBASEDONDEEPNEURALNETWORKSCandidate:LiuYuanzhenSupervisor:Prof.ZhangNaitongAcademicDegreeAppliedfor:Master’sofEngineeringSpeciality:ElectronicsandCommunicationsEngineeringAffiliation:ShenzhenGraduateSchoolDateofDefence:Dec

3、ember,2016Degree-Conferring-Institution:HarbinInstituteofTechnology萬方數(shù)據(jù)哈爾濱工業(yè)大學(xué)工程碩士學(xué)位論文摘要隨著人工智能的發(fā)展,情緒識(shí)別的應(yīng)用場(chǎng)景越來越廣泛,典型的有廣告效果評(píng)估、產(chǎn)品評(píng)測(cè)、視頻分析、醫(yī)療康復(fù)、安全駕駛以及情感機(jī)器人等。目前,情緒識(shí)別在人機(jī)交互領(lǐng)域發(fā)展特別快,尤其是在安全駕駛、情感機(jī)器人應(yīng)用上,讓機(jī)器更好的理解人、更加智能和人性化的為人類服務(wù)是近期人工智能革命的根本。機(jī)器逐漸學(xué)習(xí)到足夠的情感認(rèn)知能力以后,就可以在人機(jī)交互中對(duì)用戶體驗(yàn)進(jìn)行一系列升級(jí),最終,使機(jī)器能像普通人一樣融入人類生活。情緒識(shí)別廣義上

4、可以通過表情、語音語調(diào)或者腦電捕捉等進(jìn)行。目前技術(shù)上最成熟、得到廣泛應(yīng)用的是表情識(shí)別技術(shù),也就是基于計(jì)算機(jī)視覺算法,識(shí)別人臉的表情動(dòng)作和推斷喜怒哀樂等基本情緒。因?yàn)椴煌吮磉_(dá)感情程度存在偏差,自動(dòng)面部表情識(shí)別(FacialExpressionRecognition,F(xiàn)ER)在計(jì)算機(jī)視覺中仍然是一個(gè)具有挑戰(zhàn)性和有趣的問題。盡管在開發(fā)用于FER的各種方法方面做出了努力,但是當(dāng)處理未標(biāo)注的或在自然環(huán)境中捕獲的那些圖片時(shí),現(xiàn)有的方法缺乏普適性。大多數(shù)現(xiàn)有方法基于手工特征(例如梯度直方圖,局部二值模式和Gabor特征描述算子),然后結(jié)合分類器(如支持向量機(jī)),其中分類器的超參數(shù)被優(yōu)化以在單個(gè)數(shù)

5、據(jù)庫或類似數(shù)據(jù)庫的小集合中給出最佳識(shí)別精度。不同特征描述算子對(duì)不同背景下的表情圖像的表征能力存在偏差,必須針對(duì)特定背景圖像找到最合適的特征描述算子,這大大增加了工作復(fù)雜度。而深度學(xué)習(xí)可以自動(dòng)學(xué)習(xí)面部特征,并且屬于端到端模型,即特征學(xué)習(xí)和分類在一個(gè)模型下完成。本文基于谷歌提出的inception結(jié)構(gòu)提出了一個(gè)深層神經(jīng)網(wǎng)絡(luò)架構(gòu),以解決在不同背景圖像需要尋找不同特征描述算子的問題,并精簡(jiǎn)模型使之能夠成功應(yīng)用到移動(dòng)端。具體來說,我們的網(wǎng)絡(luò)由兩個(gè)卷積層組成,每個(gè)層之后是最大池,緊接著是三個(gè)inception層。網(wǎng)絡(luò)是單個(gè)組件架構(gòu),其將注冊(cè)的面部圖像作為輸入并將其分類為六個(gè)基本表情或中性表情中的

6、任一個(gè)。本文對(duì)七個(gè)公開可用的面部表情數(shù)據(jù)庫(MultiPIE、MMI、CK+、DISFA、FERA、SFEW和FER2013)進(jìn)行了全面的實(shí)驗(yàn)。主要對(duì)比分析了基于傳統(tǒng)特征的學(xué)習(xí)方法和基于深度學(xué)習(xí)方法在不同數(shù)據(jù)庫上的泛化能力,實(shí)驗(yàn)表明基于深度學(xué)習(xí)的方法泛化能力要好于基于傳統(tǒng)特征的學(xué)習(xí)方法;此外,還與目前主流的模型諸如VGG、GoogleNet、ResNet等模型在表情識(shí)別任務(wù)上做了對(duì)比進(jìn)一步說明了基于inception的結(jié)構(gòu)在保證表情識(shí)別準(zhǔn)確率的前提下,可以盡量精簡(jiǎn)模型大小。關(guān)鍵詞:表情識(shí)別;特征;支持向量機(jī);卷積神經(jīng)網(wǎng)絡(luò)-I-萬方數(shù)據(jù)哈爾濱工業(yè)大學(xué)工程碩士學(xué)位論文AbstractWi

7、ththedevelopmentofartificialintelligence,theapplicationofemotionrecognitionscenemoreandmorewidely,thetypicaladvertisingeffectivenessevaluation,productevaluation,videoanalysis,medicalrehabilitation,safedrivingandemotionalrobot.Atpr

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無此問題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。