資源描述:
《頭戴式視線跟蹤算法研究》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。
1、碩士學(xué)位論文頭戴式視線跟蹤算法研究作者姓名費舒學(xué)科專業(yè)電路與系統(tǒng)指導(dǎo)教師秦華標(biāo)教授所在學(xué)院電子與信息學(xué)院論文提交日期2016年6月StudyofHead-MountedGazeTrackingAlgorithmADissertationSubmittedfortheDegreeofMasterCandidate:FeiShuSupervisor:Prof.QinHuabiaoSouthChinaUniversityofTechnologyGuangzhou,China分類號:TP391學(xué)校代號:10561學(xué)號:201320108081華南理工大學(xué)碩士學(xué)
2、位論文頭戴式視線跟蹤算法研究作者姓名:費舒指導(dǎo)教師姓名、職稱:秦華標(biāo)教授申請學(xué)位級別:工學(xué)碩士學(xué)科專業(yè)名稱:電路與系統(tǒng)研究方向:圖像技術(shù)與智能系統(tǒng)論文提交日期:2016年6月2日論文答辯日期:2016年6月8日學(xué)位授予單位:華南理工大學(xué)學(xué)位授予日期:年月日答辯委員會成員:主席:賀前華教授委員:朱延軍高級工程師秦華標(biāo)教授黃茜教授李艷雄講師華南理工大學(xué)學(xué)位論文原創(chuàng)性聲明本人鄭重聲明:所呈交的論文是本人在導(dǎo)師的指導(dǎo)下獨立進行研究所取得的研巧成果。除了文中特別加W標(biāo)注引用的內(nèi)容外,本論文不包含任何其他個人或集體已經(jīng)發(fā)表或撰寫的成果作品。對本文的
3、研究做出重要貢。獻的個人和集體,均己在文中W明確方式標(biāo)明本人完全意識到本聲明的法律后果由本人承擔(dān)。作者簽名;日期:>4年^月>專日學(xué)位論文版權(quán)使用授權(quán)書本學(xué)位論文作者完全了解學(xué)校有關(guān)保留、使用學(xué)位論文的規(guī)定,即:研巧生在校攻讀學(xué)位期間論文工作的知識產(chǎn)權(quán)單位屬華南理工大學(xué)。學(xué)校有權(quán)保存并向國家有關(guān)部口或機構(gòu)送交論文的復(fù)印件和電子版,允許學(xué)位論文被查閱(除在保密期內(nèi)的保密論文外);學(xué)校可臥公布學(xué)位論文的全、部或部分內(nèi)容,可允許采用影印縮印或其它復(fù)制手段保存、匯編學(xué)位-致論文。本人電子文檔的內(nèi)容和紙質(zhì)論文的內(nèi)容相。
4、本學(xué)位論文屬于:□保密,在年解密后適用本授權(quán)書。口不保密,同意在校園網(wǎng)上發(fā)布,供校內(nèi)師生和與學(xué)校有共享協(xié)議的單位瀏覽;同意將本人學(xué)位論文提交中國學(xué)術(shù)期刊(光盤版)電子雜志社全文出版和編入CNKI《中國知識資源總庫》,傳播學(xué)位論文的全部或部分內(nèi)容。""V(請在[^1上相應(yīng)方框內(nèi)打)。作者簽名:日期:^.指導(dǎo)教師簽名:日期wi作者聯(lián)系電話:電子郵箱:聯(lián)系地址(含郵編):摘要視線跟蹤技術(shù)作為最新穎的人機交互方式,其方法是通過攝像頭獲取人眼圖像,建立圖像中的眼動特征與注視點之間的映射關(guān)系以獲取人眼注視點的位置。
5、將視線跟蹤技術(shù)與增強現(xiàn)實相結(jié)合,不僅能夠跟蹤用戶的視線方向,獲取用戶在場景中的感興趣區(qū)域,還可以體現(xiàn)增強現(xiàn)實系統(tǒng)虛實結(jié)合的特點。頭戴式視線跟蹤系統(tǒng)將紅外光源和攝像頭通過頭盔設(shè)備固定在人眼周圍,為增強現(xiàn)實系統(tǒng)提供了一種簡單、高效且雙向的交互方式,具有重要的研究意義和廣泛的應(yīng)用前景。本文從頭戴式視線跟蹤系統(tǒng)結(jié)構(gòu)的特殊性出發(fā),重點研究了頭戴式視線跟蹤系統(tǒng)下眼動特征提取算法和視線映射模型的建立。本文的主要工作和研究成果如下:1)近紅外光下眼動特征提取算法研究。在頭戴式視線跟蹤系統(tǒng)下,人眼距離攝像頭較近,紅外光源以及系統(tǒng)前方反射鏡會使人眼圖像對比度不均勻并使人眼
6、特征產(chǎn)生形變。針對以上的問題,本文選取瞳孔和虹膜作為表征視線方向的眼動特征,采用先獲取眼動特征輪廓再定位眼動特征中心的思路,提出自動瞳孔閾值分割算法,在傳統(tǒng)OTSU算法的基礎(chǔ)上結(jié)合直方圖峰值搜索閾值補償算法,實現(xiàn)對瞳孔區(qū)域的精確分割;利用直方圖迭代算法獲取虹膜區(qū)域分割閾值,采用Sobel邊緣檢測以及RANSAC算法分別提取瞳孔中心和虹膜中心特征參數(shù)。2)頭戴式視線跟蹤三維視線映射模型建立。本文從頭戴式視線跟蹤系統(tǒng)注視點估計的精度和系統(tǒng)整體的復(fù)雜度出發(fā),提出一種基于瞳孔和虹膜的新型三維視線映射模型,只利用單攝像頭和單紅外光源以及屏幕上指定區(qū)域的四個標(biāo)定點
7、,利用提取的眼動二維中心特征對瞳孔和虹膜進行三維空間建模,建立三維視線方向向量并結(jié)合視線角度信息,從而估計人眼注視點的位置。仿真實驗與對比分析表明,本文瞳孔和虹膜的特征提取精度分別為96%和95%,提取速率可達25幀/秒,在提取精度和提取速率之間取得了一個較好的平衡。而利用!本文建立的三維視線映射模型估計注視點位置的平均精度為1.16,在保證頭戴式視線跟蹤系統(tǒng)注視點估計精度的同時,極大地減小了系統(tǒng)整體結(jié)構(gòu)和標(biāo)定過程的復(fù)雜度。關(guān)鍵詞:頭戴式;視線跟蹤;閾值補償;特征提取;三維映射模型IAbstractGazetrackingtechnology,asth
8、elatestkindofhumancomputerinteraction,obtainsth