資源描述:
《語(yǔ)音情感識(shí)別的研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫(kù)。
1、 ̄ ̄單位代碼10602I學(xué)號(hào)2013011665分類(lèi)號(hào)TP391級(jí)公開(kāi)全Q方心呼藏'>序GUANGXINOPMALUNIVEPSITY碩壬學(xué)化文語(yǔ)音情感識(shí)別的研究Researchonseechemotionreconitionpg學(xué)院;電子工程學(xué)院專(zhuān)業(yè):電子與通信王程研究方向;語(yǔ)音情感識(shí)別的研究年級(jí);2013級(jí)研究生:謝玲指導(dǎo)教師:視維平教授完成日期:2016年4月語(yǔ)音情感識(shí)別的研究專(zhuān)業(yè)名電子與通信工程申請(qǐng)人:
2、撕冷指導(dǎo)教師:胡錐平論文答辯委巧會(huì)主席委員:八訓(xùn)廣西師姬大學(xué)碩±學(xué)巧論義語(yǔ)音情感識(shí)別的研巧研究生姓名:謝玲導(dǎo)師姓名:胡維平專(zhuān)業(yè):電子與通信工程研究方向:語(yǔ)音情感識(shí)別的研究年級(jí):2013摘要語(yǔ)音情感識(shí)別是屯、理學(xué)、語(yǔ)音學(xué)、數(shù)字信號(hào)處理、人工智能等多個(gè)學(xué)科相互交義而產(chǎn)生的新興研巧領(lǐng)域,引起了越來(lái)越多學(xué)者的關(guān)注。語(yǔ)音情感識(shí)別不僅在人機(jī)交互中有較大,而且在疾病診斷、刑偵破案、遠(yuǎn)程教育等領(lǐng)域也有日趨廣泛的應(yīng)用的應(yīng)用前景。因此,語(yǔ)音情感識(shí)別的研究具有重大的理論意義
3、W及實(shí)際應(yīng)用價(jià)值。目前,語(yǔ)音情感識(shí)別研巧己取得了豐富的理論和應(yīng)用成果,然而由于語(yǔ)音自身的復(fù)雜性W及各相關(guān)學(xué)科發(fā)展程度的制約,該項(xiàng)研巧依然存在許多亟待解決的技術(shù)難題。本文是在悲哀,對(duì)語(yǔ)、高興、中性、驚嚇?biāo)姆N語(yǔ)音情感庫(kù)的基礎(chǔ)上音情感識(shí)別將征提取技術(shù)做了相關(guān)研巧I主要包括如下四個(gè)方面內(nèi)容:1()端點(diǎn)檢測(cè)不僅影響語(yǔ)音情感識(shí)別系統(tǒng)的性能,而且對(duì)語(yǔ)音分析中的計(jì)算量與處理時(shí)間也有影響,。本文提出采用了基于能煽比的端點(diǎn)檢測(cè)法并與常用的基于短時(shí)能量與短。,時(shí)過(guò)零率的方法做了比較分析實(shí)驗(yàn)結(jié)果表明在低信
4、噪比的情況下,本文采用的方法能得到更優(yōu)的檢測(cè)效果。(2)特征選擇是語(yǔ)音情感識(shí)別系統(tǒng)中的關(guān)鍵環(huán)節(jié)。通常,特征選擇的原則是盡可能將,,相關(guān)特征納入特征集,其結(jié)果很難避免特征間的相關(guān)性和冗余性同時(shí)大大増加了計(jì)算量并對(duì)隨后的語(yǔ)音情感識(shí)別結(jié)果帶來(lái)負(fù)面的影響。因此,本文采用了BP神經(jīng)網(wǎng)絡(luò)對(duì)常用的一32個(gè)特征進(jìn)行特征選擇,選出對(duì)語(yǔ)音情感識(shí)別貢獻(xiàn)度較好的5個(gè)特征(能量階差分、基一頻均值,SVM、MFCC均值、過(guò)零率階差分、LPC均值)作為特征矢量集最后分別使用,767975,與GMM識(shí)別機(jī)進(jìn)行識(shí)
5、別得到語(yǔ)音情感平均識(shí)別率分別為%與.%。因此本文W下工作中的語(yǔ)音情感識(shí)別機(jī)選用GMM。(3)從特征選擇結(jié)果得到的日個(gè)特征,其中MFCC均值參數(shù)維數(shù)為24、LPC均值參2一一數(shù)維數(shù)為1,而其余H個(gè)特征參數(shù)(能量階差分、基頻均值、過(guò)零率階差分)的維數(shù)一1,均為。因此為了進(jìn)步提高語(yǔ)音情感識(shí)別率,降低特征維數(shù),減少計(jì)算量,本文提出PCAMFCCPC36一采用方法對(duì)均值與L均值組成的維特征矢量集進(jìn)行降維,得到姐化維特征矢量集與其余H個(gè)特征組成新的持征矢量集。最后使用GMM識(shí)別機(jī)識(shí)別,得到四種
6、語(yǔ)音情感的平均識(shí)別率為80.5%,實(shí)現(xiàn)識(shí)別率的提升。(4)由(3)可知,其方法對(duì)語(yǔ)音情感識(shí)別率的提升是有效的,然而提升效果有限。因此一,為了進(jìn)步提升語(yǔ)音情感識(shí)別率,本文提出了在語(yǔ)音信號(hào)基頻曲線上提?。停疲茫锰兀崳娬鲄?shù),并將其加入將征矢量集中,用GMM識(shí)別機(jī)識(shí)別,得到四種語(yǔ)音情感的平均識(shí)別I廣西師巧大學(xué)碩±學(xué)位論義一率為83%。為了再進(jìn)步提升語(yǔ)音情感識(shí)別率,本文提出了基于短時(shí)平均幅度曲線上提?。崳?,,用GMM識(shí)別機(jī)識(shí)別的微擾特征參數(shù)并將其加入特征矢量集中,得到四種語(yǔ)音情感的845平
7、均識(shí)別率為.%。說(shuō)明本文提取的兩類(lèi)特征對(duì)語(yǔ)音情感識(shí)別率的提升是有效的。關(guān)鍵詞;BP:語(yǔ)音情感識(shí)別;能擱比神經(jīng)網(wǎng)絡(luò);特征選擇;高斯漏合模型n廣西師范大學(xué)碩±學(xué)位論文ResearchonspeechemotionrecognitionGraduatestudent:LingXieTutor:Prof.WeipingHugrade:2013Maor:Ele巧ronicsandCommxmicatio打EngineerinjgResearchdirect
8、ion:ResearchonspeechemotionrecognitionAbstractSpeechEmotionRecognition(SEC),whichis過(guò)iresearchinteractionofmultipledisciplines,such*asscholohoneticsdiitalsinalrocessinandartificia