【摘要】:本論文主要是在保證卷積神經(jīng)網(wǎng)絡(luò)速度和精度的前提下,比較并找到用于目標(biāo)檢測(cè)的特征放大方法的最佳可能組合。卷積神經(jīng)網(wǎng)絡(luò)的作用是將圖像縮小為更容易處理的形式,同時(shí)不會(huì)丟失影響預(yù)測(cè)準(zhǔn)確度的重要特征。之所以選擇神經(jīng)網(wǎng)絡(luò)是因?yàn)槠淠軌驅(qū)ΧS圖像的內(nèi)部特征進(jìn)行表示。這使得模型能夠從數(shù)據(jù)中的變體結(jié)構(gòu)中學(xué)習(xí)到圖像處理中的重要特征即位置和比例特征。目前有許多深度學(xué)習(xí)的框架,新的框架經(jīng)常被提出用于特定的領(lǐng)域。以深度學(xué)習(xí)框架為基礎(chǔ)是因?yàn)樗试S我們?cè)诓簧钊肓私獾讓铀惴?xì)節(jié)的基礎(chǔ)上能夠簡(jiǎn)單、快速地構(gòu)建深度學(xué)習(xí)模型。此外,它提供了一種清晰簡(jiǎn)潔的方法來(lái)定義模型,即使用預(yù)先構(gòu)建和優(yōu)化組件。這些優(yōu)化組件能夠優(yōu)化性能,并行化流程,從而減少計(jì)算并能夠自動(dòng)計(jì)算梯度。此外,以上所提到的算法都是使用卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征。近年來(lái),隨著計(jì)算機(jī)視覺(jué)學(xué)科的發(fā)展,目標(biāo)檢測(cè)的發(fā)展越來(lái)越快。計(jì)算機(jī)技術(shù)中的目標(biāo)檢測(cè)技術(shù)已成為計(jì)算機(jī)視覺(jué)和圖像處理的重要組成部分。目標(biāo)檢測(cè)是指從數(shù)字圖像和視頻中檢測(cè)特定類的語(yǔ)義對(duì)象(如人、建筑物、汽車、樹(shù)、自行車等)的實(shí)例。在現(xiàn)代卷積目標(biāo)檢測(cè)系統(tǒng)中,有許多方法可以用來(lái)權(quán)衡精度與速度和內(nèi)存的關(guān)系。但在不同的目標(biāo)探測(cè)器中,很難進(jìn)行公平的比較。近年來(lái),許多不同的成功開(kāi)發(fā)系統(tǒng)被提出,但由于不同的基本特征提取器(如VGG、殘差網(wǎng)絡(luò))、固定圖像分辨率以及不同的開(kāi)發(fā)環(huán)境(硬件和軟件)的原因很難進(jìn)行公平的比較。在本文中,我們關(guān)注三個(gè)特征提取器模型,如雙線性插值,最近鄰插值和像素洗牌插值,并找到最佳的比較結(jié)果。此外,目標(biāo)檢測(cè)算法的主要任務(wù)是通過(guò)繪制邊界框來(lái)尋找感興趣的目標(biāo)。另外,在一個(gè)目標(biāo)檢測(cè)的例子中,不僅僅只繪制一個(gè)邊界框。幾個(gè)邊界框可能表示一個(gè)圖像中存在多個(gè)感興趣的對(duì)象。目標(biāo)檢測(cè)的另一個(gè)基本問(wèn)題是圖像中多個(gè)尺度目標(biāo)的檢測(cè)。為了平衡分辨率與語(yǔ)義之間的沖突,提出了尺度轉(zhuǎn)換模塊。此外為了獲得檢測(cè)目標(biāo)的高分辨率特征圖和檢測(cè)較大目標(biāo)的最大接收域的特征圖,分別使用了尺度轉(zhuǎn)換層和池化層。然而,在淺層特征圖上仍存在一些檢測(cè)問(wèn)題。小目標(biāo)的背景和前景的區(qū)分僅僅使用淺層語(yǔ)義是不夠的,需要更多的語(yǔ)義。為了在每個(gè)位置同時(shí)預(yù)測(cè)目標(biāo)邊界和目標(biāo)得分,區(qū)域選取網(wǎng)絡(luò)(RPN)即一個(gè)全卷積網(wǎng)絡(luò)被使用。區(qū)域選取算法用于假設(shè)目標(biāo)位置,并與檢測(cè)網(wǎng)絡(luò)共享完整的圖像卷積特征。隨著對(duì)象檢測(cè)和語(yǔ)義分割發(fā)展的不斷發(fā)展,實(shí)例分割出現(xiàn)了一些新的問(wèn)題,并添加了一個(gè)用于預(yù)測(cè)對(duì)象掩模的新分支,該分支與現(xiàn)有用于邊界框回歸的分支并行。近年來(lái),不同類型的目標(biāo)檢測(cè)模型被提出,如基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)(R-CNN),Fast R-CNN,Faster R-CNN,單次檢測(cè)器(SSD),You Only Look Once(YOLO)網(wǎng)絡(luò),基于區(qū)域全卷積網(wǎng)絡(luò)(R-FCN),特征金字塔網(wǎng)絡(luò)(FPN),規(guī)?蓚鬏敊z測(cè)網(wǎng)絡(luò)(STDN)和掩碼R-CNN。特征金字塔網(wǎng)絡(luò)(FPN)是一種將準(zhǔn)確性和速度考慮在內(nèi)的金字塔概念的特征提取器。它取代了像Faster R-CNN這樣的探測(cè)器的特征提取器,生成了多個(gè)質(zhì)量信息比用物體檢測(cè)的常規(guī)特征金字塔更好特征圖圖層(多尺度特征圖)。在快速R-CNN的擴(kuò)展FPN的基礎(chǔ)上,我們將檢測(cè)模型修改為雙線性插值,最近鄰插值和像素洗牌插值,以比較基于邊界框的平均精度(AP)的不同約束。我們還測(cè)量了所有這些模型的平均召回率(AR)。我們將epochs的時(shí)間從90K縮短到60K,以更快地訓(xùn)練數(shù)據(jù)集。所有模型都固定交并比0.5并且每個(gè)圖像的最大對(duì)象數(shù)設(shè)為100,但是對(duì)小特征目標(biāo),像素洗牌插值提高了所有模型的結(jié)果(0.215的平均精度)。我們還列出了COCO 2014 minval數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果,并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行比較。
【學(xué)位授予單位】:華南理工大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2019
【分類號(hào)】:TP391.41;TP183
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 王守義;周海英;楊陽(yáng);;基于卷積特征的核相關(guān)自適應(yīng)目標(biāo)跟蹤[J];中國(guó)圖象圖形學(xué)報(bào);2017年09期
2 李新祥;兩圓位置關(guān)系中的特征圖[J];中學(xué)數(shù)學(xué)教學(xué)參考;2001年07期
3 徐瑞龍;用于地下通風(fēng)系統(tǒng)管理的系統(tǒng)特征圖[J];暖通空調(diào);2000年05期
4 鄧慧琴;兩圓位置關(guān)系中的特征圖[J];山西教育;2003年22期
5 丁力行,李松 ,曾憲鈞;系統(tǒng)特征圖在地鐵車輛通風(fēng)設(shè)計(jì)中的應(yīng)用[J];城市軌道交通研究;2003年06期
6 徐瑞龍;地下通風(fēng)系統(tǒng)管理的新技術(shù)——系統(tǒng)特征圖[J];地下空間;1998年S1期
7 葛蕓;馬琳;江順亮;葉發(fā)茂;;基于高層特征圖組合及池化的高分辨率遙感圖像檢索[J];電子與信息學(xué)報(bào);2019年10期
8 齊峰,譚建榮,張樹(shù)有;基于裝配特征圖樹(shù)的裝配模型與建模方法[J];農(nóng)業(yè)機(jī)械學(xué)報(bào);2003年02期
9 馬禮;王強(qiáng);楊銀剛;馬東超;張永梅;;基于三維物體特征圖的動(dòng)態(tài)碰撞檢測(cè)方法[J];計(jì)算機(jī)測(cè)量與控制;2016年08期
10 王維凡;李超;;非負(fù)特征圖的線性染色[J];中國(guó)科學(xué)(A輯:數(shù)學(xué));2008年12期
相關(guān)會(huì)議論文 前3條
1 宋鈞才;;再論棉花色特征的綜合評(píng)定兼論中國(guó)棉花色特征圖[A];山東紡織工程學(xué)會(huì)十二屆第二次優(yōu)秀論文評(píng)選獲獎(jiǎng)?wù)撐募痆C];2011年
2 牛欣;司銀楚;王濱;文仁都;;七種中醫(yī)脈診教學(xué)模型的建立及評(píng)價(jià)[A];第一屆全國(guó)中西醫(yī)結(jié)合診斷學(xué)術(shù)會(huì)議論文選集[C];2006年
3 車武軍;楊勛年;汪國(guó)昭;;內(nèi)在參量下的骨架驅(qū)動(dòng)變形方法[A];第一屆全國(guó)幾何設(shè)計(jì)與計(jì)算學(xué)術(shù)會(huì)議論文集[C];2002年
相關(guān)博士學(xué)位論文 前3條
1 王沖;基于深度學(xué)習(xí)的協(xié)同顯著性檢測(cè)方法研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2019年
2 宋凱凱;基于深度學(xué)習(xí)的圖像情感分析研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2018年
3 四建樓;智能視覺(jué)監(jiān)控中行人再識(shí)別技術(shù)研究[D];北京郵電大學(xué);2018年
相關(guān)碩士學(xué)位論文 前10條
1 劉杰;基于局部特征的人體重識(shí)別技術(shù)研究[D];北京交通大學(xué);2019年
2 張佳佳;基于生成對(duì)抗機(jī)制的跨模態(tài)特征關(guān)聯(lián)及應(yīng)用[D];合肥工業(yè)大學(xué);2019年
3 黃啟恒;基于多級(jí)深度特征表示的視頻行人再識(shí)別相關(guān)方法研究[D];合肥工業(yè)大學(xué);2019年
4 胡海龍;基于行為生物特征的移動(dòng)用戶身份持續(xù)認(rèn)證方法研究[D];西南大學(xué);2019年
5 郭芳;視覺(jué)注意機(jī)制建模中的特征剪裁策略研究[D];濟(jì)南大學(xué);2019年
6 Islam Mohammad Khairul;利用CNN進(jìn)行目標(biāo)檢測(cè)的特征圖放大方法研究[D];華南理工大學(xué);2019年
7 王鵬;基于深度特征表示的行人再識(shí)別算法研究[D];華南理工大學(xué);2019年
8 羅彭婷;基于特征工程和深度學(xué)習(xí)的乳腺癌前哨淋巴結(jié)轉(zhuǎn)移預(yù)測(cè)方法研究[D];華南理工大學(xué);2019年
9 楊超;融合評(píng)論文本內(nèi)容和評(píng)論者行為特征的虛假評(píng)論檢測(cè)方法研究[D];上海師范大學(xué);2019年
10 史雪鳳;3D-AVS預(yù)測(cè)技術(shù)與特征圖壓縮技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2018年
,
本文編號(hào):
2638584
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/2638584.html