資源描述:
《基于條紋結(jié)構(gòu)光的深度獲取研究》由會員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。
1、代號10701學(xué)號1102120740分類號TN911.73密級公開題(中、英文)目基于條紋結(jié)構(gòu)光的深度獲取研究StudyofDepthAcquisitionBasedonStripeStructuredLight作者姓名李芹指導(dǎo)教師姓名、職務(wù)石光明教授學(xué)科門類工學(xué)學(xué)科、專業(yè)電路與系統(tǒng)提交論文日期二○一四年三月萬方數(shù)據(jù)西安電子科技大學(xué)學(xué)位論文獨(dú)創(chuàng)性(或創(chuàng)新性)聲明秉承學(xué)校嚴(yán)謹(jǐn)?shù)膶W(xué)風(fēng)和優(yōu)良的科學(xué)道德,本人聲明所呈交的論文是我個人在導(dǎo)師指導(dǎo)下進(jìn)行的研究工作及取得的研究成果。盡我所知,除了文中特別加以標(biāo)注和致
2、謝中所羅列的內(nèi)容以外,論文中不包含其他人已經(jīng)發(fā)表或撰寫過的研究成果;也不包含為獲得西安電子科技大學(xué)或其它教育機(jī)構(gòu)的學(xué)位或證書而使用過的材料。與我一同工作的同志對本研究所做的任何貢獻(xiàn)均已在論文中做了明確的說明并表示了謝意。申請學(xué)位論文與資料若有不實之處,本人承擔(dān)一切的法律責(zé)任。本人簽名:________日期:______________西安電子科技大學(xué)關(guān)于論文使用授權(quán)的說明本人完全了解西安電子科技大學(xué)有關(guān)保留和使用學(xué)位論文的規(guī)定,即:研究生在校攻讀學(xué)位期間論文工作的知識產(chǎn)權(quán)單位屬西安電子科技大學(xué)。學(xué)校有權(quán)
3、保留送交論文的復(fù)印件,允許查閱和借閱論文;學(xué)??梢怨颊撐牡娜炕虿糠謨?nèi)容,可以允許采用影印、縮印或其它復(fù)制手段保存論文。同時本人保證,畢業(yè)后結(jié)合學(xué)位論文研究課題再攥寫的文章一律署名單位為西安電子科技大學(xué)。(保密的論文在解密后遵守此規(guī)定)本學(xué)位論文屬于保密,在____年解密后適用本授權(quán)書。本人簽名:________日期:______________導(dǎo)師簽名:________日期:______________萬方數(shù)據(jù)摘要I摘要隨著計算機(jī)視覺相關(guān)領(lǐng)域的蓬勃發(fā)展,利用三維信息來理解各種場景變得越來越重要,其中
4、深度數(shù)據(jù)的獲取是必不可少的,快速、高精度、稠密的深度數(shù)據(jù)的獲取是現(xiàn)階段的研究重點。但是已有的方法或者能夠在犧牲效率的情況下獲取高精度的深度數(shù)據(jù),或者在犧牲精度的情況下高效率的獲取深度數(shù)據(jù)。本文提出了兩種基于條紋結(jié)構(gòu)光的深度獲取方法。第一種使用黑白條紋模板,該模板中黑白條紋依照DeBruijn序列進(jìn)行編碼,以保證譯碼簡單快捷。為了獲取高精度的稠密深度數(shù)據(jù),本文引入相位差匹配算法。該匹配算法能夠保證圖像中每個像素實現(xiàn)亞像素級匹配。另外,由于深度數(shù)據(jù)在區(qū)域邊緣處誤差較大,本文采用同一連續(xù)區(qū)域內(nèi)深度數(shù)據(jù)的連續(xù)性
5、對深度數(shù)據(jù)再優(yōu)化處理。實驗證明,對于場景中包含大面積連續(xù)區(qū)域的情況下能夠快速獲取高精度深度數(shù)據(jù),但是當(dāng)場景中含有過多小面積目標(biāo)時,該方法失效。因此,本文提出第二種基于隨機(jī)模板的方法。該隨機(jī)模板中各列白色像素點的密度是周期的,對該模板積分后是周期信號,本文在匹配算法方面仍然選用相位差法,以保證匹配精度為亞像素級。該方法相比于第一種方法的優(yōu)勢在于當(dāng)場景中含有大量條狀區(qū)域時,可以使用區(qū)域相關(guān)匹配算法對匹配結(jié)果進(jìn)行改進(jìn),最終保證深度數(shù)據(jù)的高精度。除此之外,第二種方法與其他全局搜索的區(qū)域相關(guān)匹配算法相比,所得深度
6、數(shù)據(jù)的精度更高,計算量大幅度減少,更容易滿足實時性要求。實驗結(jié)果顯示,該方法對硬件要求較少,所得數(shù)據(jù)精度較高,計算時間短,滿足實時性要求。關(guān)鍵詞:深度數(shù)據(jù)獲取條紋結(jié)構(gòu)光相位差匹配算法區(qū)域相關(guān)匹配算法萬方數(shù)據(jù)II基于條紋結(jié)構(gòu)光的深度獲取研究萬方數(shù)據(jù)AbstractIIIAbstractWiththedevelopmentofcomputervision,theunderstandingof3Dscenesisof
increasingimportanceanddepthacquisitionisindis
7、pensable.Therefore,howto
acquiredenseandaccuratedepthmapatahighspeedisakeyresearchtopic.The
presentmethodscanmeasureeitherprecisedepthvalueswithlowefficiencyorrough
andreal-timedepthvalues.Weproposetwodepthacquisitionmethodsbasedonstripestructuredlight.T
8、he
patternusedinthefirstoneisblackandwhitestripepatternandisencodedwithDe
Bruijnsequencewhichiseasytodecode.Toacquirepreciseanddensedepthmap,we
choosephase-differencebasedmatchingwhichachievessub-pixelmatching.In
addition,