基于壓縮感知理論的人臉識(shí)別算法研究

基于壓縮感知理論的人臉識(shí)別算法研究

ID:35062202

大小:3.42 MB

頁(yè)數(shù):42頁(yè)

時(shí)間:2019-03-17

基于壓縮感知理論的人臉識(shí)別算法研究_第1頁(yè)
基于壓縮感知理論的人臉識(shí)別算法研究_第2頁(yè)
基于壓縮感知理論的人臉識(shí)別算法研究_第3頁(yè)
基于壓縮感知理論的人臉識(shí)別算法研究_第4頁(yè)
基于壓縮感知理論的人臉識(shí)別算法研究_第5頁(yè)
資源描述:

《基于壓縮感知理論的人臉識(shí)別算法研究》由會(huì)員上傳分享,免費(fèi)在線(xiàn)閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫(kù)。

1、'’'*■■■y.、---_T{''‘乂-'.r:-.-‘:.....,索取號(hào):TP391密級(jí):公開(kāi)戚駕抑遂—.‘■:'乂;碩±學(xué)位論義l*l疆涵麵;:戀?--r基于壓縮感知理論的人臉巧別算法研究麵翁\I指導(dǎo)教師:黃勇堅(jiān)割教巧培養(yǎng)單位:物理工程學(xué)院-級(jí)學(xué)科:電子科學(xué)與技術(shù)W繫二級(jí)學(xué)科:電路與系統(tǒng)"^?氣尋辭完成時(shí)間:2016年3月10日廣-答辯時(shí)間:

2、2016年6月4日.‘-?’每,—.丫壊-'? ̄^、J?--1*一、.■.公>0曲阜師范大學(xué)研究生學(xué)位論文獨(dú)創(chuàng)性聲明""""(根據(jù)學(xué)位論文類(lèi)型相應(yīng)地在□劃V)本人鄭重聲明:此處所提交的博±口/碩±向淹文《基于壓縮感知理論的人臉識(shí)別算法研究》,是本人在導(dǎo)師指導(dǎo)下,在曲阜師范大學(xué)攻讀博±口/碩±因魯位期間獨(dú)立進(jìn)行研究工作所取得的成果。論文中除注明部分外不包含他人已經(jīng)發(fā)表或撰寫(xiě)的研究成果。對(duì)本文的研究工作做出重要貢獻(xiàn)的個(gè)人和集體,均己在

3、文中明確的方式注明。本聲明的法律結(jié)果將完全由本人承擔(dān)。?作者簽名?;u親^4U少、中曲阜師范大學(xué)研究生學(xué)位論"文"使用"授"權(quán)書(shū)(根據(jù)學(xué)位論文類(lèi)型相應(yīng)地在□劃V)《基于壓縮感知理論的人臉巧別篡法研究》系本人在曲阜師范大學(xué)攻讀>博±n/碩±拉學(xué)位期間,在導(dǎo)師指導(dǎo)下完成的博±口/碩位論文。本論文的研究成果歸曲阜師范大學(xué)所有,本論文的研巧內(nèi)容不得其他單位的名義發(fā)表。本人完全了解曲阜師范大學(xué)關(guān)于保存、使用學(xué)位論文的規(guī)定,同意學(xué)校保留并向有關(guān)部口送交論文的復(fù)印件和電子版本,

4、允許論文被查閱和借閥。本人授權(quán)曲阜師范大學(xué),可1^采用影印或其他復(fù)制手段保存論文,可W公開(kāi)發(fā)表論文的全部或部分內(nèi)容。》作者簽名;作日期:心化成導(dǎo)師簽名:曰期:"W/lL7繁Xf旅粟摘要摘要人臉識(shí)別一直是圖像處理領(lǐng)域經(jīng)典的研究課題,因其具有成本低、無(wú)侵犯性、易操作等優(yōu)點(diǎn),在身份認(rèn)證、安全監(jiān)控等領(lǐng)域得到了廣泛的應(yīng)用。人臉識(shí)別的發(fā)展帶動(dòng)了計(jì)算機(jī)視覺(jué)、機(jī)器學(xué)習(xí)等多領(lǐng)域的快速發(fā)展,具有重要的研究意義。當(dāng)前的人臉識(shí)別算法都是建立在大批樣本的前提下,利用統(tǒng)計(jì)學(xué)習(xí)原理,合理地對(duì)低維數(shù)據(jù)進(jìn)行分析整

5、合,但在處理高維數(shù)據(jù)時(shí)效果不佳。壓縮感知理論的出現(xiàn)打破了人臉識(shí)別的瓶頸,通過(guò)充分利用信號(hào)稀疏性的采樣理論,克服了采樣數(shù)據(jù)量巨大、數(shù)據(jù)維數(shù)過(guò)高等問(wèn)題。該理論最經(jīng)典的算法就是稀疏表示分類(lèi)算法,通過(guò)直接處理原始數(shù)據(jù),避免了圖像預(yù)處理時(shí)信息的丟失問(wèn)題。當(dāng)人臉發(fā)生遮擋時(shí),現(xiàn)有的理論不能確保信號(hào)的準(zhǔn)確恢復(fù),進(jìn)而影響識(shí)別效果。因此本文的主要研究?jī)?nèi)容就是針對(duì)圖像存在遮擋的情況下,改進(jìn)了一種基于稀疏表示的人臉識(shí)別方法,將遮擋圖像和樣本集圖像以相同的分塊方式進(jìn)行處理,分別對(duì)每一小塊圖像進(jìn)行識(shí)別,通過(guò)計(jì)算殘差值得到識(shí)別結(jié)果

6、。識(shí)別的過(guò)程中利用一個(gè)非常稀疏的隨機(jī)測(cè)量矩陣,運(yùn)用稀疏度自適應(yīng)匹配追蹤算法來(lái)進(jìn)行信號(hào)的重構(gòu),在不需要獲悉信號(hào)稀疏度的前提下,通過(guò)不斷地迭代估計(jì)出信號(hào)的稀疏度,從而解決實(shí)際生活中信號(hào)稀疏度不定的情況,達(dá)到提高識(shí)別精度和魯棒性的目的。在AR標(biāo)準(zhǔn)人臉庫(kù)和自建人臉庫(kù)中對(duì)提出的改進(jìn)算法進(jìn)行驗(yàn)證,實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的算法能夠很好的彌補(bǔ)發(fā)生遮擋時(shí)帶來(lái)的不利影響,比傳統(tǒng)的人臉識(shí)別方法更加準(zhǔn)確,數(shù)據(jù)運(yùn)算量小,運(yùn)算速度更快。關(guān)鍵詞:壓縮感知;稀疏表示;人臉識(shí)別;SAMP算法IAbstractAbstractFaceid

7、entificationtechnologyisaclassicresearchtopicinthefieldofimageprocessing,withcharacteristicsoflowcost,non-violativeandeasilytooperate.Nowithasbeenwidelyappliedintheareaofidentityauthenticationandsecuritymonitoring.Ithasgreatsignificanceonacademicresearc

8、handpromotedtherapiddevelopmentintheareaofcomputervision,machinelearningandetc.Basedongreatquantityofdatasamplesandtheoryofutilizingstatisticallearning,theexistingfacerecognitionalgorithmisabletoanalyzeandintegratelowdimensionald

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫(huà)的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無(wú)此問(wèn)題,請(qǐng)放心下載。
2. 本文檔由用戶(hù)上傳,版權(quán)歸屬用戶(hù),天天文庫(kù)負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無(wú)法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶(hù)請(qǐng)聯(lián)系客服處理。