基于嵌入式平臺(tái)的文本相關(guān)說話人確認(rèn)算法的研究

基于嵌入式平臺(tái)的文本相關(guān)說話人確認(rèn)算法的研究

ID:36812146

大?。?.34 MB

頁數(shù):57頁

時(shí)間:2019-05-15

基于嵌入式平臺(tái)的文本相關(guān)說話人確認(rèn)算法的研究_第1頁
基于嵌入式平臺(tái)的文本相關(guān)說話人確認(rèn)算法的研究_第2頁
基于嵌入式平臺(tái)的文本相關(guān)說話人確認(rèn)算法的研究_第3頁
基于嵌入式平臺(tái)的文本相關(guān)說話人確認(rèn)算法的研究_第4頁
基于嵌入式平臺(tái)的文本相關(guān)說話人確認(rèn)算法的研究_第5頁
資源描述:

《基于嵌入式平臺(tái)的文本相關(guān)說話人確認(rèn)算法的研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。

1、重慶郵電人學(xué)碩十論文摘要摘要說話人識(shí)別技術(shù)以其方便、經(jīng)濟(jì)、易于被接受以及安全可靠等特點(diǎn)R益成為人們生活和工作中重要且普及的用戶身份驗(yàn)證方式。但是,在嵌入式平臺(tái)上使用常規(guī)的方法難以達(dá)到實(shí)時(shí)處理的要求。對(duì)于基于動(dòng)態(tài)時(shí)間彎折(DynamicTimeWarping,DTW)算法的文本相關(guān)說話人識(shí)別系統(tǒng)來說,在普通PC機(jī)器上很容易達(dá)到實(shí)時(shí)的效果,但將其移植到嵌入式平臺(tái),如多普達(dá)掌上電腦P800(CPU主頻為201MHz)時(shí),訓(xùn)練和識(shí)別速度就會(huì)很慢,難以滿足實(shí)時(shí)性要求。目前,國內(nèi)外針對(duì)嵌入式文本相關(guān)的說話人識(shí)別實(shí)現(xiàn)的研究,鮮有與運(yùn)算速度相關(guān)的。本文針對(duì)這一現(xiàn)狀,為了使文本相關(guān)說話人識(shí)別系統(tǒng)在嵌入式平臺(tái)上得

2、以實(shí)用,借鑒了語音識(shí)別中的非線性分段(Non-LinearPartition.NLP)思想,把語音按照內(nèi)容劃分為N段,分別對(duì)每段語音建立說話人模型。在對(duì)說話人識(shí)別主流的建模方式高斯混合模型(GaussianMixtureMode[。GMM)和通用背景模型-高斯混合模型(Universa[BackgroundMode[·GaussianMixtureMode[,GMM—UBM)的方法進(jìn)行比較和分析后,根據(jù)訓(xùn)練數(shù)據(jù)較短的特點(diǎn)以及實(shí)際使用的特殊環(huán)境,最終采用單高斯模型作為說話人模型。單高斯模型簡(jiǎn)單的特點(diǎn)同時(shí)也決定著它不能夠精確的刻畫說話人的個(gè)性特征。因此,系統(tǒng)采用多遍訓(xùn)練進(jìn)行模型融合,并針對(duì)文本相關(guān)

3、的說話人識(shí)別語料選擇合適的分段準(zhǔn)則。除此之外,系統(tǒng)還使用雙模型距離判決手段提高系統(tǒng)性能。在同一個(gè)語料庫上測(cè)試得到的實(shí)驗(yàn)結(jié)果表明:基于非線性分段算法的系統(tǒng)等錯(cuò)誤率為1.21%,與基于DTW的基線系統(tǒng)相比,相對(duì)性能提高了57%,并且系統(tǒng)的訓(xùn)練時(shí)間降低到基線系統(tǒng)的23%,識(shí)別時(shí)間降低到50%,在實(shí)時(shí)性和實(shí)用性上均有著良好的效果。關(guān)鍵詞:嵌入式平臺(tái),說話人識(shí)別,文本相關(guān),非線性分段algorithmSOastomaketext—dependentspeakerrecognitionsystemsapplicableinembeddedplatforms.Thiscutsthefeaturesequen

4、ceintoseveralrelativelystablesegmentsandtrainsspeakermodelsonthesesegments.Afteranalyzingthetwomainstreamapproaches(GMMmodelingandGMM—UBMmodeling),thisutilizestheSingle.Gaussianmodelingmethodtotrainspeakermodelsinviewofshorttrainingdataandspecialcircumstancesinactualuse.Single.GaussianmodelingiSadou

5、ble—edgedsword.Althoughitissimple,itcannotcharacterizeaspeaker’Spersonalityaccurately.Therefore,multi—trainingisusedformodelfusion.a(chǎn)ndanappropriatesegmentationcriterioniSestablishedaccordingtothecorpusoftext-specificspeakerrecognition.Apartfromthesemethods,theperformanceisfurtherimprovedthroughtheju

6、dgementofdouble.modeldistances.Theexperimentalresultsonthesamespeechcorpusshowthat,basedontheNLPalgorithm,theproposedtext—dependentspeakerrecognitionsystem,withanequalerrorrate(EER)of1.21%.a(chǎn)cquiresaperformancegainof57%comparedtothebaselinesystembasedontheDTWalgorithm.Inthemeantime,thetrainingtimeisr

7、educedto23%thatofthebaselinesystem,andrecognizingtime50%.Therefore,theproposedsystemachievesabetterpracticalresultintermsofreal-timeperformance.KeYwords:EmbeddedApplications,SpeakerVerification,TextDe

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無此問題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。