資源描述:
《基于雙網(wǎng)絡(luò)模型的視頻檢索算法研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。
1、碩士學(xué)位論文基于雙網(wǎng)絡(luò)模型的視頻檢索算法研究作者姓名廖奕鋮學(xué)科專業(yè)通信與信息系統(tǒng)指導(dǎo)教師丁泉龍教授所在學(xué)院電子與信息學(xué)院論文提交日期2018年4月ResearchonVideoRetrievalAlgorithmBasedonDualNetworkModelADissertationSubmittedfortheDegreeofMasterCandidate:LiaoYichengSupervisor:Prof.DingQuanlongSouthChinaUniversityofTechnologyGuangzhou,China分類號:TP391.41學(xué)校代號
2、:10561學(xué)號:201520108584華南理工大學(xué)碩士學(xué)位論文基于雙網(wǎng)絡(luò)模型的視頻檢索算法研究作者姓名:廖奕鋮指導(dǎo)教師姓名、職稱:丁泉龍教授申請學(xué)位級別:工學(xué)碩士學(xué)科專業(yè)名稱:通信與信息系統(tǒng)研究方向:現(xiàn)代通信理論與技術(shù)論文提交日期:2018年4月11日論文答辯日期:2018年6月2日學(xué)位授予單位:華南理工大學(xué)學(xué)位授予日期:年月日答辯委員會(huì)成員:主席:韋崗委員:丁泉龍王一歌曹燕華南理工大學(xué)學(xué)位論文原創(chuàng)性聲明本人鄭重聲明:所呈交的論文是本人在導(dǎo)師的指導(dǎo)下獨(dú)立進(jìn)。行研宄所取得的研宄成果除了文中特別加以標(biāo)注引用的內(nèi)容外,本論文不包含任何其他個(gè)人或集
3、體已經(jīng)發(fā)表或撰寫的成果作品。對本文的研宄做出重要貢獻(xiàn)的個(gè)人和集體,均己在文中以明確方式標(biāo)明。。本人完全意識到本聲明的法律后果由本人承擔(dān)作者簽日期:^^年<月2日學(xué)位論文版權(quán)使用授權(quán)書本學(xué)位論文作者完全了解學(xué)校有關(guān)保留、使用學(xué)位論文的規(guī)定,S卩:研宄生在校攻讀學(xué)位期間論文工作的知識產(chǎn)權(quán)單位屬華南理工大學(xué)。學(xué)校有權(quán)保存并向國家有關(guān)部門或機(jī)構(gòu)送交論文的復(fù)印件和電子版,允許學(xué)位論文被查閱(除在保密期內(nèi)的保密論文外)學(xué)校可以公布學(xué)位論文的全部或部分內(nèi)容,可以允許采;用影印、縮印或其它復(fù)制手段保存、匯編學(xué)位論文。本人電子文一檔
4、的內(nèi)容和紙質(zhì)論文的內(nèi)容相致。本學(xué)位論文屬于:□保密,(校保密委員會(huì)審定為涉密學(xué)位時(shí)間:年月日)年月日解密后適用本授權(quán)書。_y__不保密,,同意在校園網(wǎng)上發(fā)布供校內(nèi)師生和與學(xué)校有共享協(xié)議的單位瀏覽;同意將本人學(xué)位論文提交中國學(xué)術(shù)期刊盤版)電子雜志社全文出版和編入CNKI《中國知識資源總庫》,(光傳播學(xué)位論文的全部或部分內(nèi)容。“”(請?jiān)谝陨舷鄳?yīng)方框內(nèi)打V)2日60作者簽名期專月4:指導(dǎo)教師名日期%:作者聯(lián)系電話電子郵箱:聯(lián)系地址含郵編:()摘要互聯(lián)網(wǎng)和社交媒體近年來得到了飛速發(fā)展,視頻作為信息傳播最
5、有效的媒介,頻繁出現(xiàn)在人們的學(xué)習(xí)、工作和生活中,至今已經(jīng)產(chǎn)生了海量視頻數(shù)據(jù)。因此,目前亟需一種快速、有效的視頻檢索算法對視頻進(jìn)行管理、分析。同時(shí),近年來深度學(xué)習(xí)取得了突破性發(fā)展,且在圖像、視頻處理領(lǐng)域表現(xiàn)優(yōu)異,這為視頻檢索問題提供了新的思路。本文結(jié)合深度學(xué)習(xí)中的兩種網(wǎng)絡(luò)模型,對視頻檢索中的關(guān)鍵步驟:鏡頭分割、關(guān)鍵幀提取和特征提取作了研究、分析與改進(jìn),取得了一定的效果。本文的主要工作如下:(1)介紹了視頻檢索的研究分類和發(fā)展概況,總結(jié)了經(jīng)典鏡頭分割、關(guān)鍵幀提取和特征提取算法的思想、原理和優(yōu)缺點(diǎn)。(2)針對經(jīng)典鏡頭分割算法的不足,本文提出了一種基于深度學(xué)習(xí)的鏡頭分
6、割算法。該方法提取圖像的深度特征,通過比較特征之間的差異作為鏡頭分割的依據(jù),相較于經(jīng)典方法在光照變化、圖像模糊和背景抖動(dòng)等情景下能夠有效避免鏡頭的漏檢和誤檢。(3)本文提出了一種改進(jìn)的基于聚類加權(quán)的關(guān)鍵幀提取算法,算法首先對鏡頭中的圖像幀聚類,然后根據(jù)幀序號的連續(xù)性作二次劃分得到最終的分類結(jié)果,接著從每個(gè)類簇中提取若干關(guān)鍵幀,最后根據(jù)類簇中圖像幀的數(shù)量配置關(guān)鍵幀權(quán)重。相較于經(jīng)典方法,本算法對運(yùn)動(dòng)鏡頭提取的關(guān)鍵幀更加準(zhǔn)確,而且引入了權(quán)重來衡量重要性,使得關(guān)鍵幀的數(shù)量更為合理。(4)本文使用雙網(wǎng)絡(luò)模型構(gòu)建視頻圖像特征的描述子。對于視頻中的短鏡頭,算法使用卷積神經(jīng)網(wǎng)
7、絡(luò)提取圖像特征;對于視頻中的中、長鏡頭,使用卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征的同時(shí),繼續(xù)使用單層長短記憶網(wǎng)絡(luò)提取時(shí)序特征。且對應(yīng)提出了適用于本特征的基于文本的相似度匹配算法。在實(shí)驗(yàn)環(huán)節(jié),串聯(lián)本文提出的鏡頭分割、關(guān)鍵幀提取和特征提取三部分算法,組成完整的視頻檢索系統(tǒng)。視頻檢索的效果好于以SIFT特征為核心的傳統(tǒng)視頻檢索系統(tǒng),在查全率為90%的情況下,查準(zhǔn)率不低于82%,而且通過GPU等硬件環(huán)境加速,系統(tǒng)的檢索時(shí)間不慢于傳統(tǒng)方法。關(guān)鍵詞:視頻檢索;深度學(xué)習(xí);鏡頭分割;關(guān)鍵幀提??;特征提取IABSTRACTInternetandsocialmediahavebeenrapi
8、dlydevelopedinrecen