基于深度學(xué)習(xí)的目標(biāo)跟蹤算法研究.pdf

基于深度學(xué)習(xí)的目標(biāo)跟蹤算法研究.pdf

ID:35008137

大?。?.16 MB

頁數(shù):64頁

時(shí)間:2019-03-16

基于深度學(xué)習(xí)的目標(biāo)跟蹤算法研究.pdf_第1頁
基于深度學(xué)習(xí)的目標(biāo)跟蹤算法研究.pdf_第2頁
基于深度學(xué)習(xí)的目標(biāo)跟蹤算法研究.pdf_第3頁
基于深度學(xué)習(xí)的目標(biāo)跟蹤算法研究.pdf_第4頁
基于深度學(xué)習(xí)的目標(biāo)跟蹤算法研究.pdf_第5頁
資源描述:

《基于深度學(xué)習(xí)的目標(biāo)跟蹤算法研究.pdf》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。

1、碩士學(xué)位論文基于深度學(xué)習(xí)的目標(biāo)跟蹤算法研究RESEARCHONVISUALTRACKINGBASEDONDEEPLEARNING李藍(lán)星哈爾濱工業(yè)大學(xué)2018年6月國(guó)內(nèi)圖書分類號(hào):TP317.4學(xué)校代碼:10213國(guó)際圖書分類號(hào):681.39密級(jí):公開工程碩士學(xué)位論文基于深度學(xué)習(xí)的目標(biāo)跟蹤算法研究碩士研究生:李藍(lán)星導(dǎo)師:劉紹輝副教授申請(qǐng)學(xué)位:工程碩士學(xué)科:計(jì)算機(jī)技術(shù)所在單位:計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院答辯日期:2018年6月授予學(xué)位單位:哈爾濱工業(yè)大學(xué)ClassifiedIndex:317.4U.D.C:681.39Diss

2、ertationfortheMasterDegreeinEngineeringRESEARCHONVISUALTRACKINGBASEDONDEEPLEARNINGCandidate:LiLanxingSupervisor:AssociateProf.LiuShaohuiAcademicDegreeAppliedfor:MasterofEngineeringSpeciality:ComputerTechnologyAffiliation:SchoolofComputerScienceandTechnologyDate

3、ofDefence:June,2018Degree-Conferring-Institution:HarbinInstituteofTechnology摘要摘要目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域的重要研究方向,備受國(guó)內(nèi)外研究學(xué)者的關(guān)注。目標(biāo)跟蹤算法有許多應(yīng)用場(chǎng)景,典型的有:人機(jī)的交互、自動(dòng)駕駛以及智能視頻監(jiān)控等。目標(biāo)跟蹤算法的任務(wù),是在給定目標(biāo)物體初始狀態(tài)之后,估計(jì)目標(biāo)在后續(xù)視頻中的狀態(tài)。然而,經(jīng)過多年努力,仍有影響跟蹤算法性能的因素,如外形變化、光照變化、遮擋等,這些因素會(huì)降低跟蹤算法的魯棒性,因此,對(duì)跟蹤算法進(jìn)行更深入的研

4、究十分必要。傳統(tǒng)的目標(biāo)跟蹤算法采用相關(guān)濾波框架,用手工設(shè)計(jì)的底層視覺特征對(duì)目標(biāo)表觀進(jìn)行建模,雖然相關(guān)濾波利用頻域計(jì)算使得跟蹤速度提升,但手工特征或者淺層分類器提取的特征,僅有有限的對(duì)目標(biāo)表觀模型的語義信息預(yù)測(cè)能力,使得跟蹤精度提升緩慢。近年來,隨著深度學(xué)習(xí)技術(shù)在計(jì)算機(jī)視覺領(lǐng)域的廣泛應(yīng)用,目標(biāo)跟蹤逐漸引用深度學(xué)習(xí)技術(shù)中卷積神經(jīng)網(wǎng)絡(luò)與殘差網(wǎng)絡(luò)等模型,提取目標(biāo)更加豐富準(zhǔn)確的特征信息,使得目標(biāo)跟蹤算法的性能和魯棒性得到大幅提升。本文主要研究基于深度學(xué)習(xí)的目標(biāo)跟蹤算法,利用卷積神經(jīng)網(wǎng)絡(luò)搭建端到端的跟蹤框架,對(duì)視頻序列中的目標(biāo)狀

5、態(tài)進(jìn)行預(yù)測(cè)。并且進(jìn)一步研究了通過使用孿生網(wǎng)絡(luò)和殘差網(wǎng)絡(luò),學(xué)習(xí)和遷移圖像特征,構(gòu)建魯棒目標(biāo)表觀特征,結(jié)合相關(guān)濾波對(duì)目標(biāo)進(jìn)行實(shí)時(shí)跟蹤。在端到端的深度學(xué)習(xí)跟蹤框架中,采用了包含三層卷積與三層全連接的分類網(wǎng)絡(luò)模型,并通過兩種方法對(duì)其進(jìn)行優(yōu)化:(1)在模型中添加空間金字塔池化網(wǎng)絡(luò)(SPPNet)處理多尺度的圖片輸入,使得模型適應(yīng)目標(biāo)物體的尺度變化;(2)將模型低層卷積提取的表觀特征與高層卷積提取的語義特征相結(jié)合,對(duì)目標(biāo)進(jìn)行建模,提高對(duì)目標(biāo)物體識(shí)別的準(zhǔn)確性?;趯\生網(wǎng)絡(luò)與相關(guān)濾波相結(jié)合的研究中,通過在網(wǎng)絡(luò)模型中加入Attenti

6、on機(jī)制,對(duì)提取的深度特征賦予不同的權(quán)重,使得算法更好地適應(yīng)跟蹤場(chǎng)景。最后本文搭建出基于端到端的深度模型跟蹤框架與結(jié)合深度特征的相關(guān)濾波框架,并通過上述方法進(jìn)行優(yōu)化實(shí)驗(yàn),算法性能與baseline相比,在不降低跟蹤速率的前提下精度更高、魯棒性更好。關(guān)鍵詞:目標(biāo)跟蹤;深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);孿生網(wǎng)絡(luò)-I-AbstractAbstractVisualtrackingisanimportantbranchinComputerVision,whichattractsattentionsfrommanyscholars.Ith

7、asbeenappliedtomanyscenes,intelligentvideosurveillance,automatictransmission,human-computerinteraction,etc.Thetaksofvisualtrackingisestimatingthestateofonearbitrarytargetinvideosequencesbasedonthegroundtruthgivenatthefirstframe.Whileelementsstillexisttoinfluenc

8、etheperformanceofthetrackingalgorithm,suchasscalevariation,fastmotion,occlusionsanddeformation,thatmakeithardtotrack.Itisnecessarytomakefurtherresearchinvisualtracking.Corre

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無此問題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。