基于非采樣contourlet變換圖像融合算法的研究

基于非采樣contourlet變換圖像融合算法的研究

ID:34607442

大小:2.34 MB

頁數(shù):58頁

時間:2019-03-08

基于非采樣contourlet變換圖像融合算法的研究_第1頁
基于非采樣contourlet變換圖像融合算法的研究_第2頁
基于非采樣contourlet變換圖像融合算法的研究_第3頁
基于非采樣contourlet變換圖像融合算法的研究_第4頁
基于非采樣contourlet變換圖像融合算法的研究_第5頁
資源描述:

《基于非采樣contourlet變換圖像融合算法的研究》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。

1、ResearchonImageFusionBasedonNonsubsampledContourlettransformCandidateXiaJingSupervisorAsso.Prof.XiaoFenCollegeCollegeofInformationEngineeringProgramSignalandInformationProcessingSpecializationWaveletAnalysisandIntelligenceSignalProcessingDegreeTechnologyMasterUniversityXiangtanU

2、niversityDateMay,2012湘潭大學(xué)學(xué)位論文原創(chuàng)性聲明本人鄭重聲明:所呈交的論文是本人在導(dǎo)師的指導(dǎo)下獨立進行研究所取得的研究成果。除了文中特別加以標(biāo)注引用的內(nèi)容外,本論文不包含任何其他個人或集體已經(jīng)發(fā)表或撰寫的成果作品。對本文的研究做出重要貢獻的個人和集體,均已在文中以明確方式標(biāo)明。本人完全意識到本聲明的法律后果由本人承擔(dān)。作者簽名:日期:年月日學(xué)位論文版權(quán)使用授權(quán)書本學(xué)位論文作者完全了解學(xué)校有關(guān)保留、使用學(xué)位論文的規(guī)定,同意學(xué)校保留并向國家有關(guān)部門或機構(gòu)送交論文的復(fù)印件和電子版,允許論文被查閱和借閱。本人授權(quán)湘潭大學(xué)可以將本學(xué)位論文的全

3、部或部分內(nèi)容編入有關(guān)數(shù)據(jù)庫進行檢索,可以采用影印、縮印或掃描等復(fù)制手段保存和匯編本學(xué)位論文。涉密論文按學(xué)校規(guī)定處理。作者簽名:日期:年月日導(dǎo)師簽名:日期:年月日摘要圖像融合是利用不同類型傳感器的不同成像原理,提供互補信息,豐富圖像的信息量,增強其對環(huán)境的適應(yīng)性,以獲取對同一目標(biāo)較為準(zhǔn)確、全面、可靠的信息描述。圖像融合技術(shù)克服了單一傳感器成像在幾何特征和光譜特性等方面存在的局限性,增強了圖像的可信度和可理解性,提高了目標(biāo)識別和數(shù)據(jù)分類能力,使融合圖像包含源圖像的重要細(xì)節(jié)信息,更適合于人眼視覺感知和計算機后續(xù)處理。因此,圖像融合已作為信息融合的一個重要分支

4、,成為目前熱門研究領(lǐng)域之一,在計算機視覺、醫(yī)學(xué)領(lǐng)域、遙感領(lǐng)域、軍事領(lǐng)域等都有著廣泛的應(yīng)用前景。經(jīng)過幾十年發(fā)展,圖像融合已有一定成果,目前它們大都集中在像素級圖像融合的研究。但是,圖像融合算法和融合圖像質(zhì)量評價仍是圖像融合領(lǐng)域所存在的兩大難題,是國內(nèi)外科研人員的重點研究對象。由于小波變換在時域和頻域同時具備良好的局部性及多分辨率性,使得在傳統(tǒng)圖像融合中小波成為了主流技術(shù)。近些年,針對小波變換缺乏方向性和各向異性等缺陷,非采樣Contourlet變換興起。本文主要研究基于非采樣Contourlet變換的圖像融合算法,其主要工作及創(chuàng)新之處如下:1.研究非采樣

5、Contourlet域下的圖像邊緣特征刻畫,我們提出一種新的邊緣特征提取方法。在此基礎(chǔ)上,我們提出基于邊緣特征的圖像融合方法。對不同融合算法進行對比實驗驗證了該算法簡單可行,不僅提高了融合效果,而且降低了時間復(fù)雜度。2.結(jié)合圖像邊緣特征和脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN),我們提出了基于PCNN的圖像融合算法。該算法通過采用邊緣特征作為PCNN的輸入激勵神經(jīng)元點火,點火時間作為圖像清晰度的判斷依據(jù),從而選取融合系數(shù)。對不同融合算法進行對比實驗,結(jié)果表明該算法克服了傳統(tǒng)PCNN算法用像素灰度值激勵神經(jīng)元的局限性,其融合效果有較大的改善。3.另一方面,我們研究了

6、融合圖像質(zhì)量評價方法,提出了基于圖像清晰度和結(jié)構(gòu)相似度的融合圖像質(zhì)量客觀評價方法。該方法充分考慮了圖像結(jié)構(gòu)信息和人眼視覺特性,通過清晰度加權(quán)方法對圖像中的顯著區(qū)域賦予不同權(quán)值,無需參考圖像,可以為不同的應(yīng)用場合選擇不同融合算法提供可靠的依據(jù)。對不同算法的融合圖像質(zhì)量進行評價,結(jié)果表明本文提出的方法與主觀評價具有高度的一致性,與此同時,將本文提出的基于邊緣特征的融合方法與基于PCNN的融合方法的融合圖像進行客觀評價進一步驗證了本文評價方法的正確性。關(guān)鍵詞:圖像融合;非采樣Contourlet變換;邊緣特征;脈沖耦合神經(jīng)網(wǎng)絡(luò);圖像融合質(zhì)量評價IAbstra

7、ctInordertoobtainmoreaccurate,completeandreliableinformationdescriptionaboutthesameobject,imagefusioncanprovidecomplementaryinformation,enrichtheamountofinformation,andimprovetheadaptabilityoftheenvironmentbyusingimagingsensorsofdifferentimagingmodalities.Imagefusiontechnologyca

8、novercomethelimitationsofsignalsensorimaginging

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動畫的文件,查看預(yù)覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯誤,付費完成后未能成功下載的用戶請聯(lián)系客服處理。