基于條紋結(jié)構(gòu)光的深度獲取研究

基于條紋結(jié)構(gòu)光的深度獲取研究

ID:21894228

大小:1.79 MB

頁數(shù):75頁

時間:2018-10-25

基于條紋結(jié)構(gòu)光的深度獲取研究_第1頁
基于條紋結(jié)構(gòu)光的深度獲取研究_第2頁
基于條紋結(jié)構(gòu)光的深度獲取研究_第3頁
基于條紋結(jié)構(gòu)光的深度獲取研究_第4頁
基于條紋結(jié)構(gòu)光的深度獲取研究_第5頁
資源描述:

《基于條紋結(jié)構(gòu)光的深度獲取研究》由會員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。

1、代號10701學(xué)號1102120740分類號TN911.73密級公開題(中、英文)目基于條紋結(jié)構(gòu)光的深度獲取研究StudyofDepthAcquisitionBasedonStripeStructuredLight作者姓名李芹指導(dǎo)教師姓名、職務(wù)石光明教授學(xué)科門類工學(xué)學(xué)科、專業(yè)電路與系統(tǒng)提交論文日期二○一四年三月萬方數(shù)據(jù)西安電子科技大學(xué)學(xué)位論文獨(dú)創(chuàng)性(或創(chuàng)新性)聲明秉承學(xué)校嚴(yán)謹(jǐn)?shù)膶W(xué)風(fēng)和優(yōu)良的科學(xué)道德,本人聲明所呈交的論文是我個人在導(dǎo)師指導(dǎo)下進(jìn)行的研究工作及取得的研究成果。盡我所知,除了文中特別加以標(biāo)注和致

2、謝中所羅列的內(nèi)容以外,論文中不包含其他人已經(jīng)發(fā)表或撰寫過的研究成果;也不包含為獲得西安電子科技大學(xué)或其它教育機(jī)構(gòu)的學(xué)位或證書而使用過的材料。與我一同工作的同志對本研究所做的任何貢獻(xiàn)均已在論文中做了明確的說明并表示了謝意。申請學(xué)位論文與資料若有不實之處,本人承擔(dān)一切的法律責(zé)任。本人簽名:________日期:______________西安電子科技大學(xué)關(guān)于論文使用授權(quán)的說明本人完全了解西安電子科技大學(xué)有關(guān)保留和使用學(xué)位論文的規(guī)定,即:研究生在校攻讀學(xué)位期間論文工作的知識產(chǎn)權(quán)單位屬西安電子科技大學(xué)。學(xué)校有權(quán)

3、保留送交論文的復(fù)印件,允許查閱和借閱論文;學(xué)??梢怨颊撐牡娜炕虿糠謨?nèi)容,可以允許采用影印、縮印或其它復(fù)制手段保存論文。同時本人保證,畢業(yè)后結(jié)合學(xué)位論文研究課題再攥寫的文章一律署名單位為西安電子科技大學(xué)。(保密的論文在解密后遵守此規(guī)定)本學(xué)位論文屬于保密,在____年解密后適用本授權(quán)書。本人簽名:________日期:______________導(dǎo)師簽名:________日期:______________萬方數(shù)據(jù)摘要I摘要隨著計算機(jī)視覺相關(guān)領(lǐng)域的蓬勃發(fā)展,利用三維信息來理解各種場景變得越來越重要,其中

4、深度數(shù)據(jù)的獲取是必不可少的,快速、高精度、稠密的深度數(shù)據(jù)的獲取是現(xiàn)階段的研究重點。但是已有的方法或者能夠在犧牲效率的情況下獲取高精度的深度數(shù)據(jù),或者在犧牲精度的情況下高效率的獲取深度數(shù)據(jù)。本文提出了兩種基于條紋結(jié)構(gòu)光的深度獲取方法。第一種使用黑白條紋模板,該模板中黑白條紋依照DeBruijn序列進(jìn)行編碼,以保證譯碼簡單快捷。為了獲取高精度的稠密深度數(shù)據(jù),本文引入相位差匹配算法。該匹配算法能夠保證圖像中每個像素實現(xiàn)亞像素級匹配。另外,由于深度數(shù)據(jù)在區(qū)域邊緣處誤差較大,本文采用同一連續(xù)區(qū)域內(nèi)深度數(shù)據(jù)的連續(xù)性

5、對深度數(shù)據(jù)再優(yōu)化處理。實驗證明,對于場景中包含大面積連續(xù)區(qū)域的情況下能夠快速獲取高精度深度數(shù)據(jù),但是當(dāng)場景中含有過多小面積目標(biāo)時,該方法失效。因此,本文提出第二種基于隨機(jī)模板的方法。該隨機(jī)模板中各列白色像素點的密度是周期的,對該模板積分后是周期信號,本文在匹配算法方面仍然選用相位差法,以保證匹配精度為亞像素級。該方法相比于第一種方法的優(yōu)勢在于當(dāng)場景中含有大量條狀區(qū)域時,可以使用區(qū)域相關(guān)匹配算法對匹配結(jié)果進(jìn)行改進(jìn),最終保證深度數(shù)據(jù)的高精度。除此之外,第二種方法與其他全局搜索的區(qū)域相關(guān)匹配算法相比,所得深度

6、數(shù)據(jù)的精度更高,計算量大幅度減少,更容易滿足實時性要求。實驗結(jié)果顯示,該方法對硬件要求較少,所得數(shù)據(jù)精度較高,計算時間短,滿足實時性要求。關(guān)鍵詞:深度數(shù)據(jù)獲取條紋結(jié)構(gòu)光相位差匹配算法區(qū)域相關(guān)匹配算法萬方數(shù)據(jù)II基于條紋結(jié)構(gòu)光的深度獲取研究萬方數(shù)據(jù)AbstractIIIAbstractWiththedevelopmentofcomputervision,theunderstandingof3Dscenesisof increasingimportanceanddepthacquisitionisindis

7、pensable.Therefore,howto acquiredenseandaccuratedepthmapatahighspeedisakeyresearchtopic.The presentmethodscanmeasureeitherprecisedepthvalueswithlowefficiencyorrough andreal-timedepthvalues.Weproposetwodepthacquisitionmethodsbasedonstripestructuredlight.T

8、he patternusedinthefirstoneisblackandwhitestripepatternandisencodedwithDe Bruijnsequencewhichiseasytodecode.Toacquirepreciseanddensedepthmap,we choosephase-differencebasedmatchingwhichachievessub-pixelmatching.In addition,

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動畫的文件,查看預(yù)覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯誤,付費(fèi)完成后未能成功下載的用戶請聯(lián)系客服處理。