深度學(xué)習(xí)進(jìn)展及其在圖像處理領(lǐng)域的應(yīng)用

深度學(xué)習(xí)進(jìn)展及其在圖像處理領(lǐng)域的應(yīng)用

ID:32400041

大?。?.05 MB

頁(yè)數(shù):5頁(yè)

時(shí)間:2019-02-04

深度學(xué)習(xí)進(jìn)展及其在圖像處理領(lǐng)域的應(yīng)用_第1頁(yè)
深度學(xué)習(xí)進(jìn)展及其在圖像處理領(lǐng)域的應(yīng)用_第2頁(yè)
深度學(xué)習(xí)進(jìn)展及其在圖像處理領(lǐng)域的應(yīng)用_第3頁(yè)
深度學(xué)習(xí)進(jìn)展及其在圖像處理領(lǐng)域的應(yīng)用_第4頁(yè)
深度學(xué)習(xí)進(jìn)展及其在圖像處理領(lǐng)域的應(yīng)用_第5頁(yè)
資源描述:

《深度學(xué)習(xí)進(jìn)展及其在圖像處理領(lǐng)域的應(yīng)用》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在工程資料-天天文庫(kù)。

1、ZTETECHNOLOGYJOURNAL專題劉涵等深度學(xué)習(xí)進(jìn)展及其在圖像處理領(lǐng)域的應(yīng)用DOI:10.3969/j.issn.1009-6868.2017.04.007網(wǎng)絡(luò)出版地址:http://kns.cnki.net/kcms/detail/34.1228.TN.20170712.1627.002.html深度學(xué)習(xí)進(jìn)展及其在圖像處理領(lǐng)域的應(yīng)用AdvancesinDeepLearningandItsApplicationsinImageProcessing中圖分類號(hào):TN929.5文獻(xiàn)標(biāo)志碼:A文章編號(hào):1009-6868(2017)04-00

2、36-0051劉涵/LIUHan賀霖/HELin2摘要:深度學(xué)習(xí)一般通過(guò)3種方式進(jìn)行:有監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)和混合深度學(xué)李軍/LIJun1習(xí)。以“無(wú)監(jiān)督或生成式特征學(xué)習(xí)”以及“有監(jiān)督特征學(xué)習(xí)和分類”為例,討論了深度學(xué)習(xí)及其在圖像處理等領(lǐng)域的進(jìn)展及未來(lái)可能的研究方向。認(rèn)為深度學(xué)習(xí)打破(1.中山大學(xué),廣東廣州510275;2.華南理工大學(xué),廣東廣州510640)了傳統(tǒng)機(jī)器學(xué)習(xí)和信號(hào)處理技術(shù)普遍基于淺層結(jié)構(gòu)的局限。得益于相關(guān)非凸優(yōu)化(1.SunYat-SenUniversity,Guangzhou等問(wèn)題的逐步解決,深度學(xué)習(xí)已經(jīng)在圖像處理等領(lǐng)域取得了一

3、些突破性的進(jìn)展。510275,China;2.SouthChinaUniversityofTechnology,關(guān)鍵詞:深度學(xué)習(xí);圖像處理;分層結(jié)構(gòu)Guangzhou510640,China)Abstract:Deeplearningmethodsareusuallydividedintothreedifferentcategories,includingsupervisedlearning,unsupervisedlearningandmixed-structuredlearning.Inthispaper,"unsupervisedorge

4、nerativefeaturelearning"and"supervisedfeaturelearningandclassification"aretakenforexamplestoillustratetheresearchadvancesindeeplearning,andseveralpromisingresearchlinesinimageprocessing.Deeplearningtechniquehasovercomesomelimitationsofshallowstructurescommonlyusedintradition

5、almachinelearningandsignalprocessing.Duetotheprogressin過(guò)去10年左右的時(shí)間里,深度在someaspects,suchasrelevantnonconvexoptimization,deeplearninghasachieved學(xué)習(xí)對(duì)信息技術(shù)的許多方面都remarkabledevelopment.產(chǎn)生了重要影響。諸多關(guān)于深度學(xué)Keywords:deeplearning;imageprocessing;hierarchicalstructure習(xí)的描述普遍存在兩個(gè)重要的共同點(diǎn):包含多層或多階非

6、線性信息處理的模型;使用了連續(xù)的更高、更抽象層中的監(jiān)督或無(wú)監(jiān)督學(xué)習(xí)特征表示的方法。深度學(xué)習(xí)是以神經(jīng)網(wǎng)絡(luò)為基礎(chǔ),包含人工智能、圖模型、最優(yōu)化混合模型(GMM)、線性或非線性動(dòng)表示。如果能實(shí)現(xiàn)有效和高效的深等技術(shù)在內(nèi)的交叉領(lǐng)域。它之所以力系統(tǒng)、條件隨機(jī)場(chǎng)(CRF)、最大熵度學(xué)習(xí)算法,那么對(duì)于各種自然信號(hào)如此受關(guān)注,主要源于3個(gè)方面:芯模型(MaxEnt)、支持向量機(jī)(SVM)、的處理技術(shù)而言,其性能會(huì)得到很大片硬件處理性能的巨大提升,為深度邏輯回歸(LR)、核回歸以及多層感提升。網(wǎng)絡(luò)的復(fù)雜計(jì)算提供了基礎(chǔ);用于訓(xùn)知器(MLP)等。這些結(jié)構(gòu)一般包含深度

7、學(xué)習(xí)的概念一般被認(rèn)為來(lái)練的數(shù)據(jù)呈爆炸性增長(zhǎng),為復(fù)雜網(wǎng)絡(luò)最多一到兩層的非線性特征變換。源于對(duì)人工神經(jīng)網(wǎng)絡(luò)的研究。前饋的學(xué)習(xí)提供了可能;機(jī)器學(xué)習(xí)和信息已有研究表明:淺層結(jié)構(gòu)在解決簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)或具有多隱層的多層感知處理等方面研究取得了很大進(jìn)展。的或者約束較多的問(wèn)題上效果明顯,器是深度神經(jīng)網(wǎng)絡(luò)(DNN)的典型模但是由于其建模和表示能力有限,在型。反向傳播(BP)算法是解決其學(xué)1深度學(xué)習(xí)的發(fā)展對(duì)實(shí)際應(yīng)用中一些較為復(fù)雜自然信習(xí)問(wèn)題的廣泛運(yùn)用的典型算法。遺以前,絕大多數(shù)機(jī)器學(xué)習(xí)和信號(hào)號(hào)(比如人類語(yǔ)音、自然聲音和語(yǔ)言、憾的是,僅僅使用BP算法在實(shí)際學(xué)處理技術(shù)都

8、是基于淺層結(jié)構(gòu),如高斯自然圖像和視覺(jué)景色)進(jìn)行處理時(shí)會(huì)習(xí)隱層數(shù)目較多的網(wǎng)絡(luò)時(shí)往往效果遇到一些困難。人類的聽(tīng)覺(jué)和視覺(jué)不是很好[1]。在優(yōu)化目標(biāo)為非凸函數(shù)

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無(wú)此問(wèn)題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫(kù)負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無(wú)法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。