基于4d光場數(shù)據(jù)的深度信息獲取

基于4d光場數(shù)據(jù)的深度信息獲取

ID:35055151

大?。?.62 MB

頁數(shù):61頁

時(shí)間:2019-03-17

基于4d光場數(shù)據(jù)的深度信息獲取_第1頁
基于4d光場數(shù)據(jù)的深度信息獲取_第2頁
基于4d光場數(shù)據(jù)的深度信息獲取_第3頁
基于4d光場數(shù)據(jù)的深度信息獲取_第4頁
基于4d光場數(shù)據(jù)的深度信息獲取_第5頁
資源描述:

《基于4d光場數(shù)據(jù)的深度信息獲取》由會員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫

1、分類號:TP391單位代碼:11232密級:理學(xué)碩士學(xué)位論文基于4D光場數(shù)據(jù)的深度信息獲取學(xué)院:理學(xué)院學(xué)科(專業(yè)):應(yīng)用數(shù)學(xué)學(xué)號:2013020383作者:陳佃文指導(dǎo)教師:邱鈞教授完成日期:二零一六年一月十二日學(xué)位論文版權(quán)使用授權(quán)書本人完全了解北京信息科技大學(xué)關(guān)于收集、保存、使用學(xué)位論文的規(guī)定,按照學(xué)校要求提交學(xué)位論文的印刷本和電子版本。學(xué)校有權(quán)保留學(xué)位論文并向中國科學(xué)技術(shù)信息研究所等國家主管部門或其指定機(jī)構(gòu)送交論文的電子版和紙質(zhì)版,允許論文被查閱和借閱,可以采用影印、縮印或掃描等復(fù)制手段保存、匯編學(xué)位論文。學(xué)校有權(quán)適當(dāng)復(fù)制、公布論文的全部或部分內(nèi)容。學(xué)校有權(quán)將本人的學(xué)位論文加入《中

2、國優(yōu)秀碩士學(xué)位論文全文數(shù)據(jù)庫》和編入《中國知識資源總庫》。學(xué)位論文作者簽名:年月日□公開□保密(____年____月)(保密的學(xué)位論文在解密后應(yīng)遵守此協(xié)議)指導(dǎo)教師簽名:學(xué)位論文作者簽名:年月日年月日碩士學(xué)位論文原創(chuàng)性聲明本人鄭重聲明:所呈交的論文題目為《基于4D光場數(shù)據(jù)的深度信息獲取》學(xué)位論文,是本人在導(dǎo)師指導(dǎo)下,進(jìn)行研究工作所取得的成果。盡我所知,除了文中特別加以標(biāo)注的內(nèi)容外,本學(xué)位論文的研究成果不包含任何他人創(chuàng)作的、已公開發(fā)表或者沒有公開發(fā)表的作品的內(nèi)容。對本論文所涉及的研究工作做出貢獻(xiàn)的其他個(gè)人和集體,均已在文中以明確方式標(biāo)明并表示了謝意。本學(xué)位論文原創(chuàng)性聲明的法律責(zé)任由本人

3、承擔(dān)。作者簽字:年月日摘要摘要光場記錄了空間中所有光線的輻照度信息。利用光場相機(jī)采集的四維光場數(shù)據(jù),包含光線的空間和角度信息,可用于場景的深度信息獲取。受場景的復(fù)雜性影響,如遮擋區(qū)域和平滑紋理區(qū)域,其深度估計(jì)結(jié)果的精度不高。本文提出了一種利用光場數(shù)據(jù)四維結(jié)構(gòu)信息,實(shí)現(xiàn)像素級精度的深度估計(jì)算法、基于深度信息的數(shù)字重聚焦和窄視角三維表面重構(gòu)。本文利用了深度與視差的對應(yīng)關(guān)系,將計(jì)算深度轉(zhuǎn)換為計(jì)算相鄰視圖間的視差,通過采用二次匹配和分類優(yōu)化的方法提高視差的計(jì)算精度,獲取高精度的深度圖。首先采用加入權(quán)重系數(shù)的區(qū)域匹配方法,計(jì)算出圖像中每個(gè)像素點(diǎn)的視差信息。分析了匹配過程中誤差產(chǎn)生的原因,并給出

4、一種新的置信函數(shù)。結(jié)合平滑區(qū)域和邊緣遮擋區(qū)域在計(jì)算距離測度函數(shù)時(shí)具有不同值域范圍的特點(diǎn),對誤差區(qū)域進(jìn)行分類標(biāo)識。由此,設(shè)計(jì)了相應(yīng)的二次匹配方法和分類優(yōu)化方法,在降低誤匹配概率的同時(shí),兼顧了邊界信息保留和區(qū)域平滑兩個(gè)方面。實(shí)現(xiàn)每個(gè)像素的視差信息的精確估計(jì)。利用獲取的深度信息實(shí)現(xiàn)數(shù)字重聚焦,三維重構(gòu)和視點(diǎn)漫游。根據(jù)重聚焦深度和視差的對應(yīng)關(guān)系,給出多視圖下基于視差的重聚焦方法,得到聚焦在不同深度的圖像。此外,基于成像過程中的幾何原理,利用高精度的深度信息計(jì)算得到場景的三維坐標(biāo),實(shí)現(xiàn)窄視角下場景的三維重構(gòu)?;谟?jì)算出的場景三維坐標(biāo)和成像原理,可以得到視點(diǎn)在深度方向上漫游時(shí),場景所成的圖像。本

5、文采用公開的基準(zhǔn)光場數(shù)據(jù)和實(shí)拍的光場數(shù)據(jù)進(jìn)行算法驗(yàn)證、測試與評估成像精度。結(jié)果表明,本文中提出的算法降低了平滑區(qū)域和邊緣遮擋區(qū)域的深度估計(jì)誤差。與已有的算法相比,新算法具有更好的計(jì)算精度。本文研究了基于四維光場數(shù)據(jù)的高精度深度信息獲取方法。這對于視差計(jì)算過程中的匹配優(yōu)化,以及平滑曲面的深度信息獲取等理論和應(yīng)用問題的進(jìn)一步工作,均有很好的意義。同時(shí)對于這種采集方式的研究,也為某些特定應(yīng)用場合的光場相機(jī)設(shè)計(jì)提供有益的參考。關(guān)鍵詞:深度估計(jì);四維光場數(shù)據(jù);視差圖;區(qū)域匹配;數(shù)字重聚焦IABSTRACTABSTRACTThelightfieldrecordstheirradianceofal

6、lraysinspace.The4Dlightfielddata,whichiscapturedbythelightfieldcameras,containsthespatialandangularinformationofraysthatcanbeusedtoobtaindepthinformationofthescene.Affectedbythecomplexityofthescene,suchastheocclusionsandsmoothtextureregions,theprecisionoftheestimateddeptharenotsatisfactory.Inth

7、ispaper,weproposedanewdepthestimationalgorithmwithpixellevelaccuracy,whichusesthe4Dstructuralinformationoflightfielddata,therefocusingand3Dsurfacereconstructioninanarrowperspectivebasedonthedepthinformationwaspresented.Inthispaper

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會顯示錯(cuò)亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時(shí)聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請聯(lián)系客服處理。