基于人體膚色識別征的敏感視頻分類方法

ID:20572938

大?。?4.00 KB

頁數(shù):11頁

時間:2018-10-13

基于人體膚色識別征的敏感視頻分類方法_第1頁
基于人體膚色識別征的敏感視頻分類方法_第2頁
基于人體膚色識別征的敏感視頻分類方法_第3頁
基于人體膚色識別征的敏感視頻分類方法_第4頁
基于人體膚色識別征的敏感視頻分類方法_第5頁
資源描述:

《基于人體膚色識別征的敏感視頻分類方法》由會員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。

1、基于人體膚色識別征的敏感視頻分類方法摘要:為了快速、有效地分類出敏感視頻,提出一種基于人體膚色識別的敏感視頻分類方法。首先通過幀差圖像提取前景運(yùn)動區(qū)域,然后構(gòu)建人體膚色模型,并結(jié)合前景運(yùn)動區(qū)域識別出視頻中的人體,最后用多因素的級聯(lián)分類器進(jìn)行敏感視頻分類。實(shí)驗(yàn)結(jié)果分析表明,文中方法有較好的分類準(zhǔn)確率和查全率。關(guān)鍵詞:敏感視頻分類;膚色識別;前景運(yùn)動;級聯(lián)分類器中圖分類號:TP18文獻(xiàn)標(biāo)識碼:A文章編號:1009-3044(2016)13-0181-03Abstract:Inordertoeffectivelyclassify

2、theobscenevideos,anovelobscenevideoclassificationapproachbasedonhumanskinrecognitionisproposed.Wefirstextracttheforegroundmotionareabyusingframedifferenceimages.Thenwemakeupthehumanskinmodelandrecognitionhumanbodybycombingwiththeextractedforegroundmotionarea.Final

3、ly,themulti-featurecascadeclassifierisusedforclassifytheobscenevideos.Theexperimentalresultsshowthatourproposedmethodhasbetterprecisionandrecallrate.Keywords:obscenevideoclassification;skinrecognition;foregroundmotion;cascadeclassifier隨著互聯(lián)網(wǎng)視頻內(nèi)容的不斷增加,如何有效識別敏感視頻信息已成

4、為信息安全中的一個重要的課題。圖像視頻比起傳統(tǒng)文本具有更豐富的信息,因而,它的危害性更大。鑒于傳統(tǒng)過濾技術(shù)的弊病,以圖像分析與圖像理解技術(shù)為支撐的基于內(nèi)容的不良視頻過濾技術(shù)正在成為網(wǎng)絡(luò)信息過濾技術(shù)研究的一個重要方面?;趫D像內(nèi)容的圖像分類系統(tǒng)層出不窮。早在20世紀(jì)90年代就開始了對敏感圖像識別的研究,F(xiàn)leck[l]等人通過膚色分割和人體姿態(tài)的幾何特征檢測來識別敏感圖像,其基本思想是將人體看作是按照一定規(guī)則的若干柱狀區(qū)域的組合。然而其缺點(diǎn)是僅能夠處理單一類型圖像,缺乏適應(yīng)性和通用性,處理速度較慢,圖像的識別率較低。Kim[

5、2]等人提出基于膚色檢測、紋理分析以及特征向量分類來識別敏感圖片。由于使用的是簡單的膚色模型,其判斷結(jié)果很大程度上依賴皮膚區(qū)域提取的結(jié)果,存在很大的局限性。王金庭[3]在此方法的基礎(chǔ)上,在YCbCr空間構(gòu)建膚色模型,并進(jìn)行亮度自適應(yīng)提供分類的精度。HogyunLee[4]等人利用關(guān)鍵巾貞通過構(gòu)建XYZ模型,以單幀的檢測為X軸,以組幀為Y軸,以X軸、Y軸為參數(shù)構(gòu)建Z軸來判斷該幀是否含有敏感圖像。此外在利用顏色和紋理,也有部分的研究成果[5-10],但是由于其特征的單一性,實(shí)際應(yīng)用的效果不理想。呂麗[11]等提出了基于光流的敏

6、感視頻檢測的算法,而其主要是使用光流方法提取關(guān)鍵幀結(jié)合傳統(tǒng)方法來檢測的。提供了利用光流進(jìn)行檢測的新思路。綜上所述,本文提出了基于人體膚色識別的敏感視頻分類算法。該算法在文獻(xiàn)[3]的基礎(chǔ)上,將人體膚色模型與前景運(yùn)動區(qū)域結(jié)合,并采用多因素的級聯(lián)分類器提高視頻分類的效率和準(zhǔn)確率,實(shí)現(xiàn)了在復(fù)雜背景、光照不均、復(fù)雜類型下的敏感視頻分類。1前景運(yùn)動檢測和分割前景運(yùn)動區(qū)域反映了視頻中運(yùn)人體運(yùn)動所處的區(qū)域,體現(xiàn)了視頻的主要內(nèi)容。本文將采用一種基于高階統(tǒng)計(jì)量的自適應(yīng)前景區(qū)域提取算法。在視頻中,由于背景噪聲的存在和運(yùn)動對象的變化,幀間灰度差不

7、為零,背景噪聲服從均值為零的高斯正態(tài)分布,運(yùn)動變化區(qū)域服從非高斯分布,因此,在多個幀間差的圖像中區(qū)分變化前景區(qū)域和未變化背景區(qū)域可以看成是在高斯數(shù)據(jù)中識別非高斯數(shù)據(jù)。具體做法是采用幀間差的高階統(tǒng)計(jì)量假設(shè)檢驗(yàn),確定運(yùn)動對象的位置,自動分離運(yùn)動區(qū)域與背景區(qū)域簡單的2幀差圖像包含的運(yùn)動信息較少,提取的運(yùn)動對象含有空洞,運(yùn)動信息不完整,所以采用多幀差累積來獲取充分的運(yùn)動信息,本文采用的是5幀差圖像。假設(shè)第一幀圖像是,則幀差圖像計(jì)算如下:接著采用高階統(tǒng)計(jì)量方法自動區(qū)分運(yùn)動區(qū)域與背景區(qū)域,假設(shè)5幀差圖像噪聲服從高斯分布,對每個像素進(jìn)行

8、假設(shè)檢驗(yàn),判斷該像素屬于背景部分還是運(yùn)動部分,最后通過對幀間差累積圖像的局部4階矩與背景區(qū)域估計(jì)的高斯噪聲的4階矩進(jìn)行比較來確定運(yùn)動對象的位置。具體做法如下:在圖像中,用5X5的窗體在圖像內(nèi)從上至下、從左至右滑動,計(jì)算窗體內(nèi)的均值和方差:表示滑動窗體內(nèi)的像素個數(shù),是窗體移動的順序檢測閾值與幀差圖像圖像中

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動畫的文件,查看預(yù)覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯誤,付費(fèi)完成后未能成功下載的用戶請聯(lián)系客服處理。
关闭