資源描述:
《基于局部時空興趣點的人體行為識別方法研究》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。
1、碩士學(xué)位論文論文題目:基于局部時空興趣點的人體行為識別方法研究作者姓名郭峰指導(dǎo)教師陳慶章、宦若虹學(xué)科專業(yè)軟件工程培養(yǎng)類別全日制學(xué)術(shù)型碩士所在學(xué)院計算機科學(xué)與技術(shù)學(xué)院提交日期2016年4月15日浙江工業(yè)大學(xué)碩士學(xué)位論文基于局部時空興趣點的人體行為識別方法研究作者姓名:郭峰指導(dǎo)教師:陳慶章、宦若虹浙江工業(yè)大學(xué)計算機科學(xué)與技術(shù)學(xué)院2016年6月DissertationSubmittedtoZhejiangUniversityofTechnologyfortheDegreeofMasterResearchon
2、HumanBehaviorRecognitionMethodBasedonLocalSpatialTemporalInterestPointsCandidate:GuoFengAdvisor:ChenQingzhang、HuanRuohongCollegeofComputerScienceandTechnologyZhejiangUniversityofTechnologyJun2016浙江工業(yè)大學(xué)學(xué)位論文原創(chuàng)性聲明本人鄭重聲明:所提交的學(xué)位論文是本人在導(dǎo)師的指導(dǎo)下,獨立進行研究工作。所取
3、得的研究成果除文中已經(jīng)加レッ標注引用的肉容外,本論文不包含其他個人或集體己經(jīng)發(fā)表或撰寫過的研究成果,也不含為獲得浙江工業(yè)大學(xué)或其它教育機構(gòu)的學(xué)位證書而使用過的材料。對本文的研究作出重要貢獻的個人和集體,均己在文中W明確方式標明。本人承擔本聲明的法律責(zé)任。作者簽名:>日期:苗年5月么5日;||學(xué)位論文版權(quán)使用授權(quán)書、本學(xué)位論文作者完全了解學(xué)校有關(guān)保留使用學(xué)位論文的規(guī)定,同意學(xué)校保留。并向國家有關(guān)部口或機構(gòu)送交論文的復(fù)印件和電子版,允許論文被查閱和借閱本人授權(quán)浙江工業(yè)大學(xué)
4、可將本學(xué)位論文的全部或部分內(nèi)容編入有關(guān)數(shù)據(jù)庫進行檢、。索,可采用影印縮印或掃描等復(fù)制手段保存和匯編本學(xué)位論文本學(xué)位論文屬于一1□、保密,在年解密后適用本授權(quán)書。2、保密□,在H年解密后適用本授權(quán)書。3、不保密9/^""(請在上相應(yīng)方框內(nèi)打V)‘作者簽名:日期:么〇必年5月巧日言峰導(dǎo)師簽名日期:年5月巧日義y浙江工業(yè)大學(xué)碩士學(xué)位論文基于局部時空興趣點的人體行為識別方法研究摘要基于視頻的人體行為識別一直是計算機視覺技術(shù)領(lǐng)域的熱點研究課題,在各行各業(yè)都具有廣泛的應(yīng)
5、用前景和實用價值,如智能監(jiān)控、人機交互、視頻檢索等?;诰植繒r空興趣點的人體行為識別方法因其對各種干擾都具有較好的魯棒性而成為目前主流的方法,這種方法通過檢測像素值在時空鄰域有顯著變化的興趣點并從中提取底層特征來進行行為描述,無需對圖像進行前背景分割和目標跟蹤。本文主要針對該方法進行研究,主要的研究內(nèi)容及成果如下:提出了一種基于時空興趣點區(qū)域(ROI)的運動區(qū)域方向直方圖HOIRM(HistogramofOrientedInterestRegionMotion)特征,首先根據(jù)興趣點的空間位置分布提取每
6、一幀的時空興趣點區(qū)域ROI(RegionofInterestPoints),再根據(jù)幀與幀之間ROI的運動方向確定HOIRM特征,該特征是介于局部特征和全局特征之間的一種中層特征,既具有局部特征的優(yōu)點又避免了提取全局特征所需的繁瑣的步驟。接著使用聯(lián)合3DHOG、3DHOF的描述方法得到時空興趣點附近的局部特征,利用累加直方圖對局部特征和HOIRM特征進行了有效融合。提出了一種基于AP聚類的詞袋模型應(yīng)用于人體行為識別,在識別率上,對于多特征融合后的特征,AP聚類算法本身的聚類效果要優(yōu)于基于K-Means聚
7、類的詞袋模型,且在特征數(shù)量比較大的情況下AP聚類獲取視覺詞典花費的時間更少;基于AP聚類的詞袋模型可以通過特征向量之間相互傳遞消息來獲取最優(yōu)的視覺詞典容量,即不需要事先指定分類數(shù)目和初始聚類中心,因而不需要為了獲取合適的視覺詞典容量進行多次實驗。關(guān)鍵詞:時空興趣點,人體行為識別,興趣點區(qū)域運動方向直方圖,AP聚類,詞袋模型i浙江工業(yè)大學(xué)碩士學(xué)位論文RESEARCHONHUMANBEHAVIORRECOGNITIONMETHODBASEDONLOCALSPATIALTEMPORALINTERESTPOI
8、NTSABSTRACTHumanbehaviorrecognitionbasedonvideohasalwaysbeenconcernedasahotresearchtopicofcomputervision.Ithasawiderangeofapplicationsandutilityvalueinallwalksoflifesuchasintelligentvideosurveillance,human-computerinteraction,vid