資源描述:
《基于相位編碼結(jié)構(gòu)光的深度獲取研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫(kù)。
1、基于相位編碼結(jié)構(gòu)光的深度獲取研究作者姓名高山導(dǎo)師姓名、職稱石光明教授一級(jí)學(xué)科信息與通信工程二級(jí)學(xué)科智能信息處理申請(qǐng)學(xué)位類別工學(xué)碩士提交學(xué)位論文日期2014年11月學(xué)校代碼10701學(xué)號(hào)1202121180分類TN82號(hào)TN911.73密級(jí)公開西安電子科技大學(xué)碩士學(xué)位論文基于相位編碼結(jié)構(gòu)光的深度獲取研究作者姓名:高山一級(jí)學(xué)科:信息與通信工程二級(jí)學(xué)科:智能信息處理學(xué)位類別:工學(xué)碩士指導(dǎo)教師姓名、職稱:石光明教授提交日期:2014年11月AStudyofDepthAcquisitionBasedonPhaseCodingAthesissubmitted
2、toXIDIANUNIVERSITYinpartialfulfillmentoftherequirementsforthedegreeofMasterinInformationandCommunicationEngineeringByGaoshanSupervisor:Prof.ShiguangmingNovember2014西安電子科技大學(xué)學(xué)位論文獨(dú)創(chuàng)性(或創(chuàng)新性)聲明秉承學(xué)校嚴(yán)謹(jǐn)?shù)膶W(xué)風(fēng)和優(yōu)良的科學(xué)道德,本人聲明所呈交的論文是我個(gè)人在導(dǎo)師指導(dǎo)下進(jìn)行的研究工作及取得的研究成果。盡我所知,除了文中特別加以標(biāo)注和致謝中所羅列的內(nèi)容以外,論文中不包含其
3、他人已經(jīng)發(fā)表或撰寫過的研究成果;也不包含為獲得西安電子科技大學(xué)或其它教育機(jī)構(gòu)的學(xué)位或證書而使用過的材料。與我一同工作的同志對(duì)本研究所做的任何貢獻(xiàn)均已在論文中做了明確的說明并表示了謝意。申請(qǐng)學(xué)位論文與資料若有不實(shí)之處,本人承擔(dān)一切的法律責(zé)任。本人簽名:日期:西安電子科技大學(xué)關(guān)于論文使用授權(quán)的說明本人完全了解西安電子科技大學(xué)有關(guān)保留和使用學(xué)位論文的規(guī)定,即:研究生在校攻讀學(xué)位期間論文工作的知識(shí)產(chǎn)權(quán)單位屬西安電子科技大學(xué)。學(xué)校有權(quán)保留送交論文的復(fù)印件,允許查閱和借閱論文;學(xué)??梢怨颊撐牡娜炕虿糠謨?nèi)容,可以允許采用影印、縮印或其它復(fù)制手段保存論文。同
4、時(shí)本人保證,畢業(yè)后結(jié)合學(xué)位論文研究成果再撰寫的文章一律署名單位為西安電子科技大學(xué)。(保密的論文在解密后遵守此規(guī)定)本學(xué)位論文屬于保密,在年解密后適用本授權(quán)書。本人簽名:導(dǎo)師簽名:日期:日期:摘要摘要在高度自動(dòng)化、高度信息化的當(dāng)今世界,三維信息的應(yīng)用場(chǎng)景已經(jīng)越來越廣泛,并開始深刻地改變著人們的生活,如無人汽車、體感游戲儀和3D打印機(jī)的實(shí)現(xiàn)及應(yīng)用。如今,針對(duì)各種場(chǎng)景的深度信息獲取技術(shù)已成為現(xiàn)階段的研究重點(diǎn)及難點(diǎn)。本文在對(duì)現(xiàn)有深度獲取方法進(jìn)行研究的基礎(chǔ)上,提出了兩種基于相位編碼結(jié)構(gòu)光的深度獲取技術(shù)。第一種方法中使用了單幀混頻相位編碼結(jié)構(gòu)光,可用來實(shí)現(xiàn)動(dòng)
5、態(tài)場(chǎng)景下的稠密深度獲取。且與前人方法不同,該方法利用顏色及強(qiáng)度的變化來對(duì)雙頻相位進(jìn)行編碼,避免了傅里葉頻譜分離的問題,使得分頻變得更加容易。同時(shí)該方法僅采用一幅模板,即實(shí)現(xiàn)了基于余數(shù)定理的相位快速展開,可應(yīng)用于動(dòng)態(tài)場(chǎng)景之中。此外,為增加方法魯棒性,在進(jìn)行相位展開過程中,該方法充分利用了鄰域信息,以克服由余數(shù)定理引起的測(cè)量敏感性。該方法在使用單幅模版、不增加設(shè)備復(fù)雜性的情況下,有效地提高了相位展開的速度,實(shí)現(xiàn)了適用于動(dòng)態(tài)場(chǎng)景的高精度、高分辨率的深度信息獲取。經(jīng)過實(shí)際實(shí)驗(yàn)驗(yàn)證,該方法對(duì)于表面深度多變物體、復(fù)雜物體邊緣,本算法均有較強(qiáng)的魯棒性,且對(duì)彩色
6、場(chǎng)景、動(dòng)態(tài)場(chǎng)景也能實(shí)現(xiàn)精確深度測(cè)量。實(shí)驗(yàn)結(jié)果表明,相對(duì)于Kinect和ToF兩種商用深度獲取設(shè)備來說,該方法有著更高的精度。第二種方法采用了基于相位編碼的主被動(dòng)結(jié)合式深度測(cè)量。該方法基于經(jīng)典相移(Phase-Shift)三維輪廓測(cè)量法,進(jìn)行主動(dòng)結(jié)構(gòu)光投射,解碼時(shí),則利用場(chǎng)景自身特征進(jìn)行被動(dòng)雙目匹配和相移模板進(jìn)行結(jié)構(gòu)光主動(dòng)測(cè)距,進(jìn)行主被動(dòng)聯(lián)合解碼。該方法解決了傳統(tǒng)三幀三維輪廓測(cè)量法中出現(xiàn)的無法對(duì)孤立相位進(jìn)行正確展開,從而無法正確估計(jì)場(chǎng)景深度的問題;同時(shí)通過聯(lián)合利用場(chǎng)景特征及變形的模板特征,增加了深度測(cè)量的魯棒性,降低了相位展開的時(shí)間復(fù)雜度,大大加速
7、了高精度結(jié)構(gòu)光測(cè)距過程。經(jīng)實(shí)驗(yàn)驗(yàn)證,該方法測(cè)量精度高,魯棒性強(qiáng),對(duì)物體顏色信息不敏感,可廣泛用于靜態(tài)及慢速運(yùn)動(dòng)場(chǎng)景,如室內(nèi)建模等。且只要投影及拍攝設(shè)備的幀率達(dá)到一定要求,該方法也可適應(yīng)動(dòng)態(tài)場(chǎng)景的需要。關(guān)鍵詞:深度獲取結(jié)構(gòu)光相位編碼雙目匹配論文類型:應(yīng)用基礎(chǔ)研究類I西安電子科技大學(xué)碩士學(xué)位論文IIABSTRACTABSTRACTInthishighlyautomatedandinformation-orientedsociety,the3Dinformationismorewidespreadusedinlotsofareassuchasindri
8、verlesscars,motionsensing,3Dprintingandsoon.Ithasbeguntochangepeople