基于相位編碼結構光的深度獲取研究

基于相位編碼結構光的深度獲取研究

ID:34624880

大?。?.18 MB

頁數(shù):84頁

時間:2019-03-08

基于相位編碼結構光的深度獲取研究_第1頁
基于相位編碼結構光的深度獲取研究_第2頁
基于相位編碼結構光的深度獲取研究_第3頁
基于相位編碼結構光的深度獲取研究_第4頁
基于相位編碼結構光的深度獲取研究_第5頁
資源描述:

《基于相位編碼結構光的深度獲取研究》由會員上傳分享,免費在線閱讀,更多相關內(nèi)容在學術論文-天天文庫。

1、基于相位編碼結構光的深度獲取研究作者姓名高山導師姓名、職稱石光明教授一級學科信息與通信工程二級學科智能信息處理申請學位類別工學碩士提交學位論文日期2014年11月學校代碼10701學號1202121180分類TN82號TN911.73密級公開西安電子科技大學碩士學位論文基于相位編碼結構光的深度獲取研究作者姓名:高山一級學科:信息與通信工程二級學科:智能信息處理學位類別:工學碩士指導教師姓名、職稱:石光明教授提交日期:2014年11月AStudyofDepthAcquisitionBasedonPhaseCodingAthesissubmitted

2、toXIDIANUNIVERSITYinpartialfulfillmentoftherequirementsforthedegreeofMasterinInformationandCommunicationEngineeringByGaoshanSupervisor:Prof.ShiguangmingNovember2014西安電子科技大學學位論文獨創(chuàng)性(或創(chuàng)新性)聲明秉承學校嚴謹?shù)膶W風和優(yōu)良的科學道德,本人聲明所呈交的論文是我個人在導師指導下進行的研究工作及取得的研究成果。盡我所知,除了文中特別加以標注和致謝中所羅列的內(nèi)容以外,論文中不包含其

3、他人已經(jīng)發(fā)表或撰寫過的研究成果;也不包含為獲得西安電子科技大學或其它教育機構的學位或證書而使用過的材料。與我一同工作的同志對本研究所做的任何貢獻均已在論文中做了明確的說明并表示了謝意。申請學位論文與資料若有不實之處,本人承擔一切的法律責任。本人簽名:日期:西安電子科技大學關于論文使用授權的說明本人完全了解西安電子科技大學有關保留和使用學位論文的規(guī)定,即:研究生在校攻讀學位期間論文工作的知識產(chǎn)權單位屬西安電子科技大學。學校有權保留送交論文的復印件,允許查閱和借閱論文;學??梢怨颊撐牡娜炕虿糠謨?nèi)容,可以允許采用影印、縮印或其它復制手段保存論文。同

4、時本人保證,畢業(yè)后結合學位論文研究成果再撰寫的文章一律署名單位為西安電子科技大學。(保密的論文在解密后遵守此規(guī)定)本學位論文屬于保密,在年解密后適用本授權書。本人簽名:導師簽名:日期:日期:摘要摘要在高度自動化、高度信息化的當今世界,三維信息的應用場景已經(jīng)越來越廣泛,并開始深刻地改變著人們的生活,如無人汽車、體感游戲儀和3D打印機的實現(xiàn)及應用。如今,針對各種場景的深度信息獲取技術已成為現(xiàn)階段的研究重點及難點。本文在對現(xiàn)有深度獲取方法進行研究的基礎上,提出了兩種基于相位編碼結構光的深度獲取技術。第一種方法中使用了單幀混頻相位編碼結構光,可用來實現(xiàn)動

5、態(tài)場景下的稠密深度獲取。且與前人方法不同,該方法利用顏色及強度的變化來對雙頻相位進行編碼,避免了傅里葉頻譜分離的問題,使得分頻變得更加容易。同時該方法僅采用一幅模板,即實現(xiàn)了基于余數(shù)定理的相位快速展開,可應用于動態(tài)場景之中。此外,為增加方法魯棒性,在進行相位展開過程中,該方法充分利用了鄰域信息,以克服由余數(shù)定理引起的測量敏感性。該方法在使用單幅模版、不增加設備復雜性的情況下,有效地提高了相位展開的速度,實現(xiàn)了適用于動態(tài)場景的高精度、高分辨率的深度信息獲取。經(jīng)過實際實驗驗證,該方法對于表面深度多變物體、復雜物體邊緣,本算法均有較強的魯棒性,且對彩色

6、場景、動態(tài)場景也能實現(xiàn)精確深度測量。實驗結果表明,相對于Kinect和ToF兩種商用深度獲取設備來說,該方法有著更高的精度。第二種方法采用了基于相位編碼的主被動結合式深度測量。該方法基于經(jīng)典相移(Phase-Shift)三維輪廓測量法,進行主動結構光投射,解碼時,則利用場景自身特征進行被動雙目匹配和相移模板進行結構光主動測距,進行主被動聯(lián)合解碼。該方法解決了傳統(tǒng)三幀三維輪廓測量法中出現(xiàn)的無法對孤立相位進行正確展開,從而無法正確估計場景深度的問題;同時通過聯(lián)合利用場景特征及變形的模板特征,增加了深度測量的魯棒性,降低了相位展開的時間復雜度,大大加速

7、了高精度結構光測距過程。經(jīng)實驗驗證,該方法測量精度高,魯棒性強,對物體顏色信息不敏感,可廣泛用于靜態(tài)及慢速運動場景,如室內(nèi)建模等。且只要投影及拍攝設備的幀率達到一定要求,該方法也可適應動態(tài)場景的需要。關鍵詞:深度獲取結構光相位編碼雙目匹配論文類型:應用基礎研究類I西安電子科技大學碩士學位論文IIABSTRACTABSTRACTInthishighlyautomatedandinformation-orientedsociety,the3Dinformationismorewidespreadusedinlotsofareassuchasindri

8、verlesscars,motionsensing,3Dprintingandsoon.Ithasbeguntochangepeople

當前文檔最多預覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當前文檔最多預覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學公式或PPT動畫的文件,查看預覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權歸屬用戶,天天文庫負責整理代發(fā)布。如果您對本文檔版權有爭議請及時聯(lián)系客服。
3. 下載前請仔細閱讀文檔內(nèi)容,確認文檔內(nèi)容符合您的需求后進行下載,若出現(xiàn)內(nèi)容與標題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡波動等原因無法下載或下載錯誤,付費完成后未能成功下載的用戶請聯(lián)系客服處理。