多視點(diǎn)視頻內(nèi)容分析與摘要技術(shù)研究

多視點(diǎn)視頻內(nèi)容分析與摘要技術(shù)研究

ID:37384093

大?。?3.65 MB

頁數(shù):70頁

時間:2019-05-23

多視點(diǎn)視頻內(nèi)容分析與摘要技術(shù)研究_第1頁
多視點(diǎn)視頻內(nèi)容分析與摘要技術(shù)研究_第2頁
多視點(diǎn)視頻內(nèi)容分析與摘要技術(shù)研究_第3頁
多視點(diǎn)視頻內(nèi)容分析與摘要技術(shù)研究_第4頁
多視點(diǎn)視頻內(nèi)容分析與摘要技術(shù)研究_第5頁
資源描述:

《多視點(diǎn)視頻內(nèi)容分析與摘要技術(shù)研究》由會員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。

1、Multi-·viewvideocontentanalysisandsummarizationPresentedbyFuYanweiSupervisedbyProf.GuoYanwenADissertationsubmittedtotheGraduateSchoolofNanjingUniversityfortheDegreeofMasterDepartmentofComputerScienceandTechnologyNanjingUniversityNanjing,May2011聲明本人聲明所呈交的學(xué)位論文是我個人在導(dǎo)師的指導(dǎo)下、在南京大學(xué)及導(dǎo)師提供的

2、研究環(huán)境(含所標(biāo)注的項(xiàng)目資助)下作為導(dǎo)師領(lǐng)導(dǎo)的項(xiàng)目組整體的組成部分而完成的研究工作及取得的成果。論文中取得的研究成果除加以標(biāo)注和致謝的地方外,不包含其他人己經(jīng)發(fā)表或撰寫過的研究成果。與我一同工作的同志對本研究所做的任何貢獻(xiàn)均己在論文中作了明確的說明并表示了謝意。南京大學(xué)及導(dǎo)師所有權(quán)保留:送交論文的復(fù)印件,允許論文被查閱和借閱;公布論文的全部或部分內(nèi)容;可以采用影印、縮印或其他復(fù)制手段保存該論文。學(xué)生簽名:導(dǎo)師簽名:付秀韋Declaration日期:Ⅵf『.6·≥日期:伽ItoyImakeadeclarationherethatthethesissubmit

3、tediscomposedoftheresearchingworkbymyselfanditscorrespondingresearchingresultsfinishedasaconstitutepartofthewholeprojectintheprojectteamledbymyadvisor.Thethesisiscompletedwiththeguidanceofmyadvisor,andundertheresearchingcircumstancesofNanjingUniversityandmyadvisor(includingtheproj

4、ectsupportindicated).AsIknow,thethesisdoesnotincludeotherpeople’Sresearchingresultseverpublishedorcomposed,exceptthosethatarespeciallyannotatedandacknowledgesomewhereinthearticle.Anycontributionmadetotheresearchbymyworkingpartnersisdeclaredexplicitlyandacknowledgedinthethesis.Nanj

5、ingUniversityandtheadvisorretainthecopyrightasfollows:submittingthecopiesofthethesis,allowingthethesistobeconsultedandborrowed;publicizingthewholeorpartofthethesis’Scontent;keepingthethesisbyphotocopy,microcopyorothercopymethodsAuth。rsignalure:№Ⅳ蜆lFlJDate:∞11.6.2.M地or剛g眥m∞塒州w彬渺6、V

6、南京大學(xué)研究生畢業(yè)論文摘要隨著數(shù)碼攝像機(jī)和攝像頭等數(shù)字視頻獲取設(shè)備的日益普及以及計算機(jī)網(wǎng)絡(luò)通信技術(shù)的快速發(fā)展,人們所能接觸到的視頻數(shù)量正呈爆炸性的增長。在面向公共安全的視頻監(jiān)控以及影視特效制作和廣播等領(lǐng)域,所獲取的視頻多為多視點(diǎn)視頻數(shù)據(jù),場景內(nèi)容同時被具有相關(guān)性和相異性的多個視頻攝像機(jī)或攝像頭所捕獲,針對大量的多視點(diǎn)視頻數(shù)據(jù),如何快速、高效地對其進(jìn)行存儲和管理,同時使用戶能夠便捷地瀏覽接觸其內(nèi)容就顯得非常重要。本論文圍繞多視點(diǎn)視頻內(nèi)容的分析與處理所涉及的部分關(guān)鍵、核心問題展開研究,主要工作包括:首先,對于多視點(diǎn)視頻內(nèi)容的分析,一項(xiàng)關(guān)鍵技術(shù)是多視點(diǎn)視頻、關(guān)鍵

7、幀圖像集的前景物體分割。本文提出了一種基于采樣的交互式多視點(diǎn)視頻、關(guān)鍵幀圖像集內(nèi)容分割方法,我們稱之為CollectionSnapping。目前交互式的視頻、圖像集分割算法極大地簡化了圖像物體前景分割的任務(wù),但這些方法多數(shù)只能對單張圖像或含有單個共同物體的圖像集進(jìn)行分割。如果以之精確分割多視點(diǎn)視頻、關(guān)鍵幀圖像集等數(shù)據(jù),則需耗費(fèi)大量的用戶精力來對每張圖像進(jìn)行交互。為此,本文提出了更適用的方法,其主要包括兩大步驟:交互式的視頻關(guān)鍵幀集初始分割及增量式的迭代修正。具體而言,在第一步中用戶只需要提供少量幾筆對視頻或圖像集選取的采樣圖像分割與修正;對于視頻或圖像集的

8、其它圖像,通過找到與之內(nèi)容相似的采樣圖像,并應(yīng)用相應(yīng)的外觀模型來指

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動畫的文件,查看預(yù)覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯誤,付費(fèi)完成后未能成功下載的用戶請聯(lián)系客服處理。