天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于多層級聯(lián)網(wǎng)絡(luò)的多光譜圖像顯著性檢測研究

發(fā)布時間:2021-07-31 13:02
  圖像顯著性檢測在應(yīng)對場景中目標的準確確定位置和對應(yīng)內(nèi)容的搜索任務(wù)中起到了至關(guān)重要的作用。雖然近年來,針對圖像顯著性目標檢測的算法以及研究方法有很多被提出,尤其是基于深度學習的圖像顯著性目標檢測算法,但是對應(yīng)的任務(wù)精度和圖像顯著性特征利用率仍然有提升空間,以及復(fù)雜條件和場景下的顯著性目標檢測任務(wù)仍然沒有得到很好的解決。所以針對以上各類問題,本文分別提出了基于深度多尺度特征信息級聯(lián)網(wǎng)絡(luò)架構(gòu)和同功能的深度模型的多模態(tài)顯著性目標檢測算法,以提高圖像顯著性目標檢測的精度和圖像特征的利用率,以及解決復(fù)雜條件和場景下的顯著性目標檢測結(jié)果魯棒性和精確度的提高。本文中主要工作如下:(1)全卷積神經(jīng)網(wǎng)絡(luò)在當前的顯著性檢測任務(wù)中起著重要的作用,因為它的多層結(jié)構(gòu)描述了圖像在不同尺度下的深度特征。為了合理有效地聚集和利用各層次的顯著特征,提出了一種新型的端到端多層卷積特征級聯(lián)模型。該模型由兩個模塊組成:一是通過改進的全卷積網(wǎng)絡(luò)實現(xiàn)的多層次深度特征提取模塊;另一個模塊是多層次特征融合模塊,它通過級聯(lián)、上采樣、反卷積等操作,將多個池化層對應(yīng)的全局輪廓特征和局部精細特征有效的合并為一個整體。最后,利用融合模塊的輸出,... 

【文章來源】:安徽大學安徽省 211工程院校

【文章頁數(shù)】:70 頁

【學位級別】:碩士

【部分圖文】:

基于多層級聯(lián)網(wǎng)絡(luò)的多光譜圖像顯著性檢測研究


圖像顯著性檢測單張示例展示

架構(gòu)圖,架構(gòu),全連接


安徽大學碩士學位論文7得顯著成效的模型就是LeNet-5[22],當時的實驗?zāi)繕耸菍κ謱憯?shù)字的圖片進行識別并輸出對應(yīng)的數(shù)字,該網(wǎng)絡(luò)架構(gòu)訓練的數(shù)據(jù)集為MNIST[22],網(wǎng)絡(luò)對應(yīng)架構(gòu)如下圖中所示:圖2.1.LeNet網(wǎng)絡(luò)架構(gòu)[22]Fig2.1.ArchitectureofLeNet-5相比于目前提出的研究算法中常用的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),它們與LeNet-5的差異并不是很大。一些關(guān)鍵的層級組成結(jié)構(gòu)都留存至今。例如池化層,后面連接卷積層,繼而加上全連接層配合激活函數(shù)層,等一系列層級搭配。池化層在網(wǎng)絡(luò)架構(gòu)中主要起到降低上一層級特征信息維度進行下采樣的作用。池化操作需要確定卷積核的步長,然后以此將上一層級的特征信息分成若干區(qū)域,對這些區(qū)域采用不用的方式進行取值然后得到降維之后的層級信息,一般常用操作方法的是取分化區(qū)域的平均值,或者去當前區(qū)域的最大值,分別對應(yīng)著(Average-Pooling)和(Max-Pooling)操作。池化操作在一定程度上可以降低網(wǎng)絡(luò)架構(gòu)的參數(shù)規(guī)模且保留相對重要關(guān)鍵的特征信息,需要注意的是池化層本身并不包含可訓練的參數(shù),但是在搭建架構(gòu)的時候在代碼里有池化方式方法,池化步長以及池化域的尺寸這三個超參數(shù)來控制池化層。另一方面,池化層作為深度學習網(wǎng)絡(luò)架構(gòu)不可或缺的一部分,它在某些方面減少了平移以及其他操作變換對CNN的影響。全連接層通常是處在網(wǎng)絡(luò)架構(gòu)的后端,與前面的卷積層或者是池化層進行連接,多數(shù)情況以及實驗場景下,全連接層的用途是用以將之前運算的層級信息進行向量化,在做分類任務(wù)的時候?qū)⑷B接層配合Softmax函數(shù)用作分類也十分的方便,一個網(wǎng)絡(luò)架構(gòu)如果包含全連接層,那么將會有很大一部分的架構(gòu)參數(shù)來源于全連接層。這是研究深度學習架構(gòu)的研究者么在當初所困擾的問題,后來有Lin等研究者[22]提出了新的改進層級全

示例,函數(shù),模型


安徽大學碩士學位論文9優(yōu)點的話會使目標的模型訓練陷入局部優(yōu)化的死循環(huán),具體情況如下圖所示:圖2.2.函數(shù)局部最優(yōu)示例Fig2.2.Theexampleoflocaloptimum一般為應(yīng)對這種情況,常用的是在實際的模型框架中采用隨機梯度下降法(SGD,Stochasticgradientdescent),這樣使模型學習訓練方面存在避免局部最優(yōu)的可能。但是在常規(guī)模型當中采用Adam[25]優(yōu)化器的表現(xiàn)會更好,收斂速度更快。一般在模型訓練完成之后,我們還會通過對應(yīng)的測試集測試已經(jīng)訓練完成的模型預(yù)期表現(xiàn)。一般設(shè)定測試集和驗證集的原則是這兩者中不能有訓練集中的數(shù)據(jù)。通過這樣的測出的表現(xiàn)來評判目標模型的泛化能力和魯棒性以及模型的準確性。后來,卷積神經(jīng)網(wǎng)絡(luò)再添一員Krizhevsky等研究者[26]提出了AlexNet網(wǎng)絡(luò)架構(gòu),在2012年的ILSVRC圖像分類競賽中取得優(yōu)異成績。自此,開始了研究CNN網(wǎng)絡(luò)結(jié)構(gòu)的潮流,目前被應(yīng)用且改進廣泛的VGG[33]模型是繼AlexNet神經(jīng)網(wǎng)絡(luò)模型之后更深層級架構(gòu)的代表性模型。而后面出現(xiàn)的GoogleNet[28]架構(gòu),不僅相較于之前的模型有了更深的網(wǎng)絡(luò)層級且在其中添加了Inception模塊以拓寬網(wǎng)絡(luò)規(guī)模同時也增加了學習特征的多樣性。其實這也得益于雄厚的計算硬件資源,有了這個前提也為更加精確且有更加優(yōu)異

【參考文獻】:
期刊論文
[1]深度學習研究綜述[J]. 孫志軍,薛磊,許陽明,王正.  計算機應(yīng)用研究. 2012(08)



本文編號:3313517

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3313517.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶c5d04***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com