基于深度學(xué)習(xí)的視覺地點(diǎn)識別技術(shù)研究
發(fā)布時(shí)間:2022-05-08 10:05
當(dāng)前,視覺地點(diǎn)識別在多種新興科技領(lǐng)域中擁有重要的應(yīng)用前景和科研價(jià)值,并成為模式識別中的熱點(diǎn)話題。對于視覺地點(diǎn)識別而言,提升性能的一個(gè)關(guān)鍵問題是設(shè)計(jì)分辨能力更強(qiáng)同時(shí)對各種視覺變換更魯棒的圖像特征表示方法,然而囿于地點(diǎn)的復(fù)雜性和多樣性以及其面向的繁多的應(yīng)用背景,現(xiàn)存的方法并不能完全滿足當(dāng)下的現(xiàn)實(shí)需求,還亟待進(jìn)一步的研究和探索。本文基于深度學(xué)習(xí)方法對兩種視覺地點(diǎn)識別中的難點(diǎn)問題展開了探討和研究,主要完成的工作如下:在廣泛閱讀了國內(nèi)外視覺地點(diǎn)識別及相關(guān)領(lǐng)域文獻(xiàn)的基礎(chǔ)上,對本文關(guān)注的兩種視覺地點(diǎn)識別任務(wù)——視覺閉環(huán)檢測、跨視角(Cross-View)圖像地點(diǎn)識別系統(tǒng)中的現(xiàn)有方法進(jìn)行了綜述,并探討和總結(jié)了現(xiàn)有方法取得的重要成果以及有待進(jìn)一步探究的方向,為提出本文中的創(chuàng)新性方法奠定基礎(chǔ)。針對視覺閉環(huán)檢測任務(wù),本文提出一種基于Squeeze-and-Excitation增強(qiáng)結(jié)構(gòu)與并行多路徑匯聚補(bǔ)償策略的CNN模型(Hybrid-CNN)用于獲取改進(jìn)的CNN特征圖;同時(shí)設(shè)計(jì)了一種基于沿通道降采樣和非重疊池化的CNN特征圖降維策略以加速特征相似度比對。利用經(jīng)典的殘差網(wǎng)絡(luò)作為基模型,對“瓶頸”殘差構(gòu)建塊應(yīng)用...
【文章頁數(shù)】:117 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
ABSTRACT
第一章 緒論
1.1 研究背景和意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 視覺地點(diǎn)識別應(yīng)用介紹
1.2.2 視覺地點(diǎn)識別難點(diǎn)分析
1.2.3 視覺地點(diǎn)識別的常見方法
1.2.4 視覺地點(diǎn)識別的關(guān)鍵問題
1.3 論文主要工作和結(jié)構(gòu)安排
1.3.1 本文的主要工作
1.3.2 本文結(jié)構(gòu)安排
第二章 視覺地點(diǎn)識別相關(guān)基礎(chǔ)及概念介紹
2.1 視覺地點(diǎn)識別中的手工特征與圖像表示
2.1.1 手工局部特征介紹
2.1.2 BoW模型與局部特征聚類
2.1.3 手工全局特征介紹
2.1.4 手工特征融合
2.2 基于卷積神經(jīng)網(wǎng)絡(luò)特征的圖像表示
2.2.1 卷積神經(jīng)網(wǎng)絡(luò)的基本單元
2.2.2 損失函數(shù)
2.2.3 參數(shù)優(yōu)化方法
2.3 本章小結(jié)
第三章 基于Hybrid-CNN模型的視覺閉環(huán)檢測
3.1 Hybrid-CNN特征提取器模型
3.1.1 基模型介紹
3.1.2 并行多路徑匯聚補(bǔ)償策略
3.1.3 特征通道關(guān)注機(jī)制——Squeeze-and-Excitation
3.2 基于沿通道降采樣與非重疊池化的CNN特征圖降維策略
3.3 實(shí)驗(yàn)與分析
3.3.1 視覺閉環(huán)檢測相關(guān)數(shù)據(jù)集介紹
3.3.2 用于模型訓(xùn)練的場景圖像數(shù)據(jù)集介紹
3.3.3 實(shí)驗(yàn)設(shè)備與平臺
3.3.4 模型訓(xùn)練設(shè)置
3.3.5 特征的距離度量
3.3.6 閉環(huán)檢測的評價(jià)度量
3.3.7 方法步驟
3.3.8 閉環(huán)檢測實(shí)驗(yàn)結(jié)果與分析
3.4 本章小結(jié)
第四章 一種融入特征信息上下文關(guān)注機(jī)制的CNN模型設(shè)計(jì)
4.1 多尺度特征上下文關(guān)注模塊——Mul-FCAM設(shè)計(jì)
4.1.1 特征通道關(guān)注子模塊實(shí)現(xiàn)
4.1.2 空間信息關(guān)注子模塊實(shí)現(xiàn)
4.2 融合特征上下文關(guān)注模塊的CNN模型——Res FCAMNet
4.3 實(shí)驗(yàn)與分析
4.3.1 實(shí)驗(yàn)設(shè)備與平臺
4.3.2 實(shí)驗(yàn)結(jié)果
4.4 本章小結(jié)
第五章 基于Siam-FCAMNet與困難樣本挖掘的跨視角圖像地點(diǎn)識別
5.1 跨視角圖像地點(diǎn)識別中的孿生網(wǎng)絡(luò)模型介紹
5.2 CNN特征向量獲取
5.3 一種基于樣本賦權(quán)實(shí)現(xiàn)在線困難數(shù)據(jù)挖掘的Triplet損失函數(shù)設(shè)計(jì)
5.3.1 Exhaustive Mini Batch策略
5.3.2 基于距離修正Logistic回歸與香農(nóng)自信息的樣本賦權(quán)
5.3.3 方向回歸網(wǎng)絡(luò)分支與輔助損失
5.4 實(shí)驗(yàn)與分析
5.4.1 跨視角圖像地點(diǎn)識別相關(guān)數(shù)據(jù)集介紹
5.4.2 模型與訓(xùn)練設(shè)置細(xì)節(jié)
5.4.3 跨視角圖像地點(diǎn)識別的評價(jià)度量
5.4.4 本文方法與現(xiàn)有方法的比較
5.4.5 本文損失函數(shù)與Triplet EDBL損失函數(shù)的性能對比
5.4.6 多樣本平均策略性能實(shí)驗(yàn)
5.5 本章小結(jié)
第六章 總結(jié)與展望
6.1 本文的主要工作
6.2 下一步工作展望
致謝
參考文獻(xiàn)
作者在學(xué)期間取得的學(xué)術(shù)成果
【參考文獻(xiàn)】:
期刊論文
[1]CNN Feature Boosted SeqSLAM for Real-Time Loop Closure Detection[J]. BAI Dongdong,WANG Chaoqun,ZHANG Bo,YI Xiaodong,YANG Xuejun. Chinese Journal of Electronics. 2018(03)
[2]基于精簡卷積神經(jīng)網(wǎng)絡(luò)的快速閉環(huán)檢測方法[J]. 何元烈,陳佳騰,曾碧. 計(jì)算機(jī)工程. 2018(06)
博士論文
[1]基于關(guān)注度機(jī)制的圖像理解[D]. 郭聰.中國科學(xué)技術(shù)大學(xué) 2018
[2]深度學(xué)習(xí)下細(xì)粒度級別圖像的視覺分析研究[D]. 魏秀參.南京大學(xué) 2018
[3]基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分類方法研究及應(yīng)用[D]. 高震宇.中國科學(xué)技術(shù)大學(xué) 2018
[4]基于深度學(xué)習(xí)表征的圖像檢索技術(shù)[D]. 孫韶言.中國科學(xué)技術(shù)大學(xué) 2017
[5]基于局部特征提取的人臉識別方法研究[D]. 李文娟.天津大學(xué) 2017
[6]基于圖像學(xué)習(xí)表征和重排序的遙感影像內(nèi)容檢索[D]. 唐旭.西安電子科技大學(xué) 2017
[7]基于卷積神經(jīng)網(wǎng)絡(luò)的計(jì)算機(jī)視覺關(guān)鍵技術(shù)研究[D]. 李彥冬.電子科技大學(xué) 2017
[8]基于深層神經(jīng)網(wǎng)絡(luò)的圖像識別算法研究[D]. 連自鋒.北京郵電大學(xué) 2017
[9]基于遷移學(xué)習(xí)與深度卷積特征的圖像標(biāo)注方法研究[D]. 宋光慧.浙江大學(xué) 2017
碩士論文
[1]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識別[D]. 蔣帥.吉林大學(xué) 2017
[2]基于深度學(xué)習(xí)的無人駕駛場景識別[D]. 韓昕輝.中山大學(xué) 2017
[3]基于深度學(xué)習(xí)的目標(biāo)場景識別[D]. 劉宇軒.北京郵電大學(xué) 2017
本文編號:3651452
【文章頁數(shù)】:117 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
ABSTRACT
第一章 緒論
1.1 研究背景和意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 視覺地點(diǎn)識別應(yīng)用介紹
1.2.2 視覺地點(diǎn)識別難點(diǎn)分析
1.2.3 視覺地點(diǎn)識別的常見方法
1.2.4 視覺地點(diǎn)識別的關(guān)鍵問題
1.3 論文主要工作和結(jié)構(gòu)安排
1.3.1 本文的主要工作
1.3.2 本文結(jié)構(gòu)安排
第二章 視覺地點(diǎn)識別相關(guān)基礎(chǔ)及概念介紹
2.1 視覺地點(diǎn)識別中的手工特征與圖像表示
2.1.1 手工局部特征介紹
2.1.2 BoW模型與局部特征聚類
2.1.3 手工全局特征介紹
2.1.4 手工特征融合
2.2 基于卷積神經(jīng)網(wǎng)絡(luò)特征的圖像表示
2.2.1 卷積神經(jīng)網(wǎng)絡(luò)的基本單元
2.2.2 損失函數(shù)
2.2.3 參數(shù)優(yōu)化方法
2.3 本章小結(jié)
第三章 基于Hybrid-CNN模型的視覺閉環(huán)檢測
3.1 Hybrid-CNN特征提取器模型
3.1.1 基模型介紹
3.1.2 并行多路徑匯聚補(bǔ)償策略
3.1.3 特征通道關(guān)注機(jī)制——Squeeze-and-Excitation
3.2 基于沿通道降采樣與非重疊池化的CNN特征圖降維策略
3.3 實(shí)驗(yàn)與分析
3.3.1 視覺閉環(huán)檢測相關(guān)數(shù)據(jù)集介紹
3.3.2 用于模型訓(xùn)練的場景圖像數(shù)據(jù)集介紹
3.3.3 實(shí)驗(yàn)設(shè)備與平臺
3.3.4 模型訓(xùn)練設(shè)置
3.3.5 特征的距離度量
3.3.6 閉環(huán)檢測的評價(jià)度量
3.3.7 方法步驟
3.3.8 閉環(huán)檢測實(shí)驗(yàn)結(jié)果與分析
3.4 本章小結(jié)
第四章 一種融入特征信息上下文關(guān)注機(jī)制的CNN模型設(shè)計(jì)
4.1 多尺度特征上下文關(guān)注模塊——Mul-FCAM設(shè)計(jì)
4.1.1 特征通道關(guān)注子模塊實(shí)現(xiàn)
4.1.2 空間信息關(guān)注子模塊實(shí)現(xiàn)
4.2 融合特征上下文關(guān)注模塊的CNN模型——Res FCAMNet
4.3 實(shí)驗(yàn)與分析
4.3.1 實(shí)驗(yàn)設(shè)備與平臺
4.3.2 實(shí)驗(yàn)結(jié)果
4.4 本章小結(jié)
第五章 基于Siam-FCAMNet與困難樣本挖掘的跨視角圖像地點(diǎn)識別
5.1 跨視角圖像地點(diǎn)識別中的孿生網(wǎng)絡(luò)模型介紹
5.2 CNN特征向量獲取
5.3 一種基于樣本賦權(quán)實(shí)現(xiàn)在線困難數(shù)據(jù)挖掘的Triplet損失函數(shù)設(shè)計(jì)
5.3.1 Exhaustive Mini Batch策略
5.3.2 基于距離修正Logistic回歸與香農(nóng)自信息的樣本賦權(quán)
5.3.3 方向回歸網(wǎng)絡(luò)分支與輔助損失
5.4 實(shí)驗(yàn)與分析
5.4.1 跨視角圖像地點(diǎn)識別相關(guān)數(shù)據(jù)集介紹
5.4.2 模型與訓(xùn)練設(shè)置細(xì)節(jié)
5.4.3 跨視角圖像地點(diǎn)識別的評價(jià)度量
5.4.4 本文方法與現(xiàn)有方法的比較
5.4.5 本文損失函數(shù)與Triplet EDBL損失函數(shù)的性能對比
5.4.6 多樣本平均策略性能實(shí)驗(yàn)
5.5 本章小結(jié)
第六章 總結(jié)與展望
6.1 本文的主要工作
6.2 下一步工作展望
致謝
參考文獻(xiàn)
作者在學(xué)期間取得的學(xué)術(shù)成果
【參考文獻(xiàn)】:
期刊論文
[1]CNN Feature Boosted SeqSLAM for Real-Time Loop Closure Detection[J]. BAI Dongdong,WANG Chaoqun,ZHANG Bo,YI Xiaodong,YANG Xuejun. Chinese Journal of Electronics. 2018(03)
[2]基于精簡卷積神經(jīng)網(wǎng)絡(luò)的快速閉環(huán)檢測方法[J]. 何元烈,陳佳騰,曾碧. 計(jì)算機(jī)工程. 2018(06)
博士論文
[1]基于關(guān)注度機(jī)制的圖像理解[D]. 郭聰.中國科學(xué)技術(shù)大學(xué) 2018
[2]深度學(xué)習(xí)下細(xì)粒度級別圖像的視覺分析研究[D]. 魏秀參.南京大學(xué) 2018
[3]基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分類方法研究及應(yīng)用[D]. 高震宇.中國科學(xué)技術(shù)大學(xué) 2018
[4]基于深度學(xué)習(xí)表征的圖像檢索技術(shù)[D]. 孫韶言.中國科學(xué)技術(shù)大學(xué) 2017
[5]基于局部特征提取的人臉識別方法研究[D]. 李文娟.天津大學(xué) 2017
[6]基于圖像學(xué)習(xí)表征和重排序的遙感影像內(nèi)容檢索[D]. 唐旭.西安電子科技大學(xué) 2017
[7]基于卷積神經(jīng)網(wǎng)絡(luò)的計(jì)算機(jī)視覺關(guān)鍵技術(shù)研究[D]. 李彥冬.電子科技大學(xué) 2017
[8]基于深層神經(jīng)網(wǎng)絡(luò)的圖像識別算法研究[D]. 連自鋒.北京郵電大學(xué) 2017
[9]基于遷移學(xué)習(xí)與深度卷積特征的圖像標(biāo)注方法研究[D]. 宋光慧.浙江大學(xué) 2017
碩士論文
[1]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識別[D]. 蔣帥.吉林大學(xué) 2017
[2]基于深度學(xué)習(xí)的無人駕駛場景識別[D]. 韓昕輝.中山大學(xué) 2017
[3]基于深度學(xué)習(xí)的目標(biāo)場景識別[D]. 劉宇軒.北京郵電大學(xué) 2017
本文編號:3651452
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3651452.html
最近更新
教材專著