基于人臉圖像的性別識(shí)別方法研究

基于人臉圖像的性別識(shí)別方法研究

ID:37376658

大小:7.19 MB

頁(yè)數(shù):99頁(yè)

時(shí)間:2019-05-22

基于人臉圖像的性別識(shí)別方法研究_第1頁(yè)
基于人臉圖像的性別識(shí)別方法研究_第2頁(yè)
基于人臉圖像的性別識(shí)別方法研究_第3頁(yè)
基于人臉圖像的性別識(shí)別方法研究_第4頁(yè)
基于人臉圖像的性別識(shí)別方法研究_第5頁(yè)
資源描述:

《基于人臉圖像的性別識(shí)別方法研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫(kù)。

1、密級(jí):中國(guó)科學(xué)院大學(xué)UniversityofChineseAcademyofSciences碩士學(xué)位論文2013年5月ByLiTongyuADissertationSubmittedtoTheUniversityofChineseAcademyofSciencesInpartialfulfillmentoftherequirementForthedegreeofMasterofEngineeringInstituteofSemiconductor,ChineseAcademyofSciencesMay,2013獨(dú)創(chuàng)性聲明本人鄭重聲明:所提交的學(xué)

2、位論文,是本人在指導(dǎo)教師的指導(dǎo)下,獨(dú)立進(jìn)行研究工作所取得的研究成果。盡我所知,文中除特別標(biāo)注和致謝的地方外,學(xué)位論文中不包含其他人或集體已經(jīng)發(fā)表或撰寫過(guò)的研究成果,也不包含為獲得中國(guó)科學(xué)院大學(xué)或其它教育機(jī)構(gòu)的學(xué)位或證書所使用過(guò)的材料。對(duì)本文的研究做出重要貢獻(xiàn)的個(gè)人和集體,均已在文中以明確方式標(biāo)明。本人完全意識(shí)到本聲明的法律結(jié)果由本人承擔(dān)。簽名:關(guān)于學(xué)位論文使用授權(quán)的說(shuō)明本人完全了解中國(guó)科學(xué)院大學(xué)及中國(guó)科學(xué)院半導(dǎo)體研究所有關(guān)保管、使用學(xué)位論文的規(guī)定,其中包括:①學(xué)校有權(quán)保管、并向有關(guān)部門送交學(xué)位論文的原件與復(fù)印件;②學(xué)??梢圆捎糜坝?、縮印或其它復(fù)

3、制手段復(fù)制并保存學(xué)位論文;③學(xué)??稍试S學(xué)位論文被查閱或借閱;④學(xué)校可以學(xué)術(shù)交流為目的,復(fù)制贈(zèng)送和交換學(xué)位論文;⑤學(xué)校可以公布學(xué)位論文的全部或部分內(nèi)容。(涉密的學(xué)位論文在解密后應(yīng)遵守此規(guī)定)簽名:導(dǎo)師簽摘要基于人臉圖像性別識(shí)別方法的研究是模式識(shí)別研究的重要組成部分,是計(jì)算機(jī)為人類提供性別差異化服務(wù)的前提。它能夠促進(jìn)人工智能、計(jì)算機(jī)視覺(jué)和虛擬現(xiàn)實(shí)等許多領(lǐng)域的發(fā)展。本研究以現(xiàn)實(shí)應(yīng)用為前提,以人臉圖像為研究對(duì)象,旨在尋求穩(wěn)定性和泛化能力較強(qiáng)的人臉圖像性別識(shí)別方法。本研究歸納總結(jié)了性別識(shí)別所用的典型人臉圖像庫(kù)、典型性別特征提取方法和分類方法。首先,分析各

4、種典型人臉圖像庫(kù)的組成特點(diǎn),指出典型人臉圖像庫(kù)并不適合性別識(shí)別方法的研究,需要建立符合條件的人臉圖像庫(kù);其次,分析了典型的性別特征提取方法和分類方法,從時(shí)間復(fù)雜度和空間復(fù)雜度的角度分析了部分典型方法中存在的問(wèn)題。針對(duì)不同的問(wèn)題進(jìn)行了深入研究,本研究主要貢獻(xiàn)如下:(1)針對(duì)典型人臉圖像庫(kù)采集條件較為嚴(yán)格的問(wèn)題,本研究建立了以普通證件照為標(biāo)準(zhǔn)的初級(jí)仿真人臉圖像庫(kù)S,對(duì)光線沒(méi)有特殊要求。通過(guò)人眼歸一化處理,建立了尺度為46x46的人臉圖像庫(kù)S1;(2)初步建立了性別識(shí)別人臉圖像庫(kù)的評(píng)價(jià)體系。通過(guò)對(duì)該庫(kù)平均臉圖像的三維消隱圖、著色三維表面、等高線及數(shù)值

5、染色和聚類情況的分析,評(píng)價(jià)該庫(kù)是否符合研究條件;(3)建立了等測(cè)試樣本的實(shí)驗(yàn)標(biāo)準(zhǔn)和模型測(cè)試評(píng)價(jià)標(biāo)準(zhǔn)。以貝葉斯錯(cuò)誤率為指導(dǎo),規(guī)定測(cè)試樣本性別比例為1:1,當(dāng)男性識(shí)別率和女性識(shí)別率平均相差為15%時(shí),判定統(tǒng)計(jì)的識(shí)別率無(wú)效;(4)提出兩種基于特征融合的人臉圖像性別識(shí)別方法。詳細(xì)分析了PCA(PrincipalComponentAnalysis、、2DPCA(Two—DimensionalPCA)、2D2PAC(Two-directionaltwo-DimensionalPCA)、ICA(IndependentComponentsAnalysis)、L

6、DA(LinearDiscriminantAnalysis)和LBP(LocalBinaryPattern)方法的特點(diǎn),引入能夠用于二分類問(wèn)題的OLDA(OrthogonalLDA)算法,特征維數(shù)較低的ULBP(UniformLBP)編碼和快速提取獨(dú)立分量的FastlCA(FastIC舢方法,利用線性SVM(SupportVectorMachine)方法對(duì)性別特征進(jìn)行分類,通過(guò)在人臉圖像庫(kù)S1上對(duì)不同方法進(jìn)行比較,提出了基于ULBP和PCA+OLDA的人臉圖像性別識(shí)別方法,以這種特征融合結(jié)構(gòu)為基礎(chǔ),提出了基于ULBP基于人臉圖像的性別識(shí)別方法研

7、究和FastlCA+OLDA的人臉圖像性別識(shí)別方法。兩種方法在人臉圖像庫(kù)S1上表現(xiàn)優(yōu)異,識(shí)別率受參數(shù)影響較小,通過(guò)雙向的5倍交叉驗(yàn)證實(shí)驗(yàn)證明兩種方法具備較強(qiáng)的穩(wěn)定性;(5)為進(jìn)一步模擬現(xiàn)實(shí)生活環(huán)境,綜合考慮年齡、光照及人眼定位誤差等情況,建立了人臉圖像庫(kù)A;為驗(yàn)證所建模型的泛化能力,建立了由異地人員組成的泛化能力驗(yàn)證庫(kù)B。通過(guò)人眼歸一化處理,建立了尺度為40x40的人臉圖像庫(kù)A1和泛化能力驗(yàn)證庫(kù)B1用于實(shí)驗(yàn)。通過(guò)本研究所提出的評(píng)價(jià)方法,評(píng)價(jià)A1和B1符合研究條件;(6)在對(duì)Gabor人臉特征深入研究的基礎(chǔ)上,綜合了ULBP的局部紋理優(yōu)勢(shì),提出了

8、一種基于LGBP(LocalGaborBinaryPattern)和OLDA的人臉圖像性別識(shí)別方法,該方法數(shù)據(jù)維數(shù)更低,分類器采用基于余弦相似度的KN

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無(wú)此問(wèn)題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫(kù)負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無(wú)法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。