復(fù)雜場景下的小目標(biāo)檢測算法研究
發(fā)布時(shí)間:2021-07-21 15:12
近年來,目標(biāo)檢測技術(shù)發(fā)展迅速,各行各業(yè)都可以看到目標(biāo)檢測技術(shù)的身影。經(jīng)過十幾年的發(fā)展,各式各樣的目標(biāo)檢測算法被提出,目標(biāo)檢測的準(zhǔn)確率越來越高,但是小目標(biāo)檢測的效果卻一直不盡如人意。由于小目標(biāo)尺寸較小,提取到的特征少,匹配的錨點(diǎn)框少,從而不易被檢測。小目標(biāo)檢測需要綜合多個(gè)尺度特征信息。當(dāng)前目標(biāo)檢測特征提取采用基礎(chǔ)骨干網(wǎng)絡(luò)結(jié)合特征金字塔(feature pyramid networks,FPN)的方式來提取不同尺度特征。FPN在特征融合時(shí)只融合了相鄰層的特征,非相鄰層的特征被稀釋,不利于小目標(biāo)檢測。當(dāng)前感興趣區(qū)域提取主要采用的是手工設(shè)置錨點(diǎn)框方式。手工設(shè)置的錨點(diǎn)框形狀大小單一,不能很好的覆蓋小目標(biāo),導(dǎo)致錨點(diǎn)框的小目標(biāo)召回率過低,不利于小目標(biāo)檢測。本文針對(duì)現(xiàn)有目標(biāo)檢測框架對(duì)于小目標(biāo)檢測的以上缺陷,提出了一種基于密集融合的特征金字塔網(wǎng)絡(luò)(Dense fused feature pyramid network,Dense FPN)。Dense FPN將各個(gè)尺度的特征圖直接跳躍連接到特征金字塔,特征金字塔可以直接融合所有尺度特征圖信息,減少了信息在網(wǎng)絡(luò)傳遞過程中的消耗,增加了特征金字塔每層特征的豐...
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁數(shù)】:61 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
目標(biāo)檢測示意圖
哈爾濱工業(yè)大學(xué)工學(xué)碩士學(xué)位論文3目標(biāo)可能只包含十幾個(gè)像素,往往幾個(gè)像素的標(biāo)注誤差就會(huì)造成較大的誤差偏移。如圖1-2所示,圖片中的很多小鳥是小目標(biāo),沒能被正確的檢測出來。圖1-2小目標(biāo)檢測示意圖由于小目標(biāo)檢測信息量匱乏、數(shù)據(jù)量稀缺、標(biāo)注成本高、標(biāo)注誤差大、小目標(biāo)場景多樣等特點(diǎn),通用的目標(biāo)檢測算法往往不能直接遷移到小目標(biāo)檢測,小目標(biāo)檢測的mAP通常只有正常目標(biāo)的一半。小目標(biāo)檢測又是當(dāng)前目標(biāo)檢測不可或缺的一部分。在無人機(jī)的研發(fā)上,無人機(jī)通過攝像頭從高空拍攝地面上的物體,地面上的物體在拍攝的圖像上就被顯示為一個(gè)個(gè)的小目標(biāo)。另外在交通監(jiān)控中拍到的車牌號(hào)、自動(dòng)駕駛要求識(shí)別的交通指示牌等等在圖像中呈現(xiàn)出來的都是小目標(biāo)[4]。因此小目標(biāo)檢測在航拍、安防、自動(dòng)駕駛領(lǐng)域顯得尤為重要。在圖像語意理解、目標(biāo)重識(shí)別等高層計(jì)算機(jī)視覺任務(wù)上,如果對(duì)于某些小目標(biāo)的檢測不準(zhǔn)確,將會(huì)影響后面圖像語意理解和目標(biāo)重識(shí)別的準(zhǔn)確度。綜上所述,小目標(biāo)檢測的研究對(duì)于人們的生活和人工智能的發(fā)展有著巨大的意義。1.2國內(nèi)外研究現(xiàn)狀通過國內(nèi)外研究人員幾十年的研究,目標(biāo)檢測算法按照是否使用神經(jīng)網(wǎng)絡(luò)可以分為兩大類:一種是不使用神經(jīng)網(wǎng)絡(luò)的傳統(tǒng)目標(biāo)檢測算法,另一種是使用神經(jīng)網(wǎng)絡(luò)的基于深度學(xué)習(xí)的目標(biāo)檢測算法。傳統(tǒng)目標(biāo)檢測算法是對(duì)圖像提取候選區(qū)域,然后使用手工設(shè)計(jì)的特征對(duì)候選區(qū)域提取特征,然后用分類器分類。深度學(xué)習(xí)目標(biāo)檢測算法直接將一整張圖片作為輸入,通過神經(jīng)網(wǎng)絡(luò)自主學(xué)習(xí)特征,直接端到端的完成特征提娶目標(biāo)分類、矩形框回歸等操作。1.2.1傳統(tǒng)目標(biāo)檢測算法研究現(xiàn)狀如圖1-3所示,目標(biāo)檢測算法主要包含五個(gè)步驟。
哈爾濱工業(yè)大學(xué)工學(xué)碩士學(xué)位論文16圖2-8FastR-CNN架構(gòu)圖[27]目標(biāo)分類是先將特征通過一個(gè)全連接層,再使用softmax層來得到候選區(qū)域的類別概率。因?yàn)楦信d趣區(qū)域不一定與真實(shí)框完美重合,所以需要對(duì)感興趣區(qū)域的候選框位置微調(diào),使預(yù)測框與真實(shí)框的交并比盡可能大。因此目標(biāo)檢測算法的損失函數(shù)一般包括兩部分:分類損失和回歸損失。如式(2-3)所示。(,,,)=(,)+[≥1](,)(2-3)其中是預(yù)測候選區(qū)域通過softmax預(yù)測的各類別的概率。是候選區(qū)域真實(shí)類別,=0表示背景。(,)是分類損失,(,)=表示當(dāng)候選框真實(shí)類別為時(shí)的損失。是預(yù)測框的轉(zhuǎn)化后的相對(duì)坐標(biāo),是目標(biāo)框的真實(shí)相對(duì)坐標(biāo)。[≥1]表示只有前景目標(biāo)才參與回歸損失計(jì)算。(,)是平滑1損失,計(jì)算方式如式(2-4)、(2-5)。(,)=∑1()∈{,,,}(2-4)1()={0.2||<1||0.,(2-5)2.4后處理步驟目標(biāo)檢測算法對(duì)同一個(gè)目標(biāo)往往會(huì)輸出很多個(gè)檢測框,這些檢測框相互重合,而一個(gè)目標(biāo)只需要一個(gè)最優(yōu)的檢測框。在目標(biāo)分類和位置回歸之后,本文需要后處理步驟來刪除那些冗余的檢測框,只留下最優(yōu)的那個(gè)檢測框。非極大值抑制是研究人員常用的篩選檢測框算法。表2-1是NMS算法的流程,NMS算法首先將預(yù)測框按照置信度從大到小排序,保留最大置信度的預(yù)測框到輸出集合中,然后刪除剩余預(yù)測框中與最大置信度預(yù)測框交并比大于所設(shè)閾值的預(yù)測框,再對(duì)剩下的預(yù)測框重復(fù)上面的操作直到任何兩個(gè)預(yù)測框的交并比小于所設(shè)閾值。圖2-9是經(jīng)過NMS處理后的效果圖,可以看到左圖中有很多個(gè)黃色的冗余
【參考文獻(xiàn)】:
期刊論文
[1]自底向上的顯著性目標(biāo)檢測研究綜述[J]. 吳加瑩,楊賽,堵俊,林宏達(dá). 計(jì)算機(jī)科學(xué). 2019(03)
[2]基于難分樣本挖掘的快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測研究[J]. 張燁,許艇,馮定忠,蔣美仙,吳光華. 電子與信息學(xué)報(bào). 2019(06)
[3]基于轉(zhuǎn)置卷積操作改進(jìn)的單階段多邊框目標(biāo)檢測方法[J]. 郭川磊,何嘉. 計(jì)算機(jī)應(yīng)用. 2018(10)
[4]目標(biāo)檢測算法研究綜述[J]. 方路平,何杭江,周國民. 計(jì)算機(jī)工程與應(yīng)用. 2018(13)
本文編號(hào):3295264
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁數(shù)】:61 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
目標(biāo)檢測示意圖
哈爾濱工業(yè)大學(xué)工學(xué)碩士學(xué)位論文3目標(biāo)可能只包含十幾個(gè)像素,往往幾個(gè)像素的標(biāo)注誤差就會(huì)造成較大的誤差偏移。如圖1-2所示,圖片中的很多小鳥是小目標(biāo),沒能被正確的檢測出來。圖1-2小目標(biāo)檢測示意圖由于小目標(biāo)檢測信息量匱乏、數(shù)據(jù)量稀缺、標(biāo)注成本高、標(biāo)注誤差大、小目標(biāo)場景多樣等特點(diǎn),通用的目標(biāo)檢測算法往往不能直接遷移到小目標(biāo)檢測,小目標(biāo)檢測的mAP通常只有正常目標(biāo)的一半。小目標(biāo)檢測又是當(dāng)前目標(biāo)檢測不可或缺的一部分。在無人機(jī)的研發(fā)上,無人機(jī)通過攝像頭從高空拍攝地面上的物體,地面上的物體在拍攝的圖像上就被顯示為一個(gè)個(gè)的小目標(biāo)。另外在交通監(jiān)控中拍到的車牌號(hào)、自動(dòng)駕駛要求識(shí)別的交通指示牌等等在圖像中呈現(xiàn)出來的都是小目標(biāo)[4]。因此小目標(biāo)檢測在航拍、安防、自動(dòng)駕駛領(lǐng)域顯得尤為重要。在圖像語意理解、目標(biāo)重識(shí)別等高層計(jì)算機(jī)視覺任務(wù)上,如果對(duì)于某些小目標(biāo)的檢測不準(zhǔn)確,將會(huì)影響后面圖像語意理解和目標(biāo)重識(shí)別的準(zhǔn)確度。綜上所述,小目標(biāo)檢測的研究對(duì)于人們的生活和人工智能的發(fā)展有著巨大的意義。1.2國內(nèi)外研究現(xiàn)狀通過國內(nèi)外研究人員幾十年的研究,目標(biāo)檢測算法按照是否使用神經(jīng)網(wǎng)絡(luò)可以分為兩大類:一種是不使用神經(jīng)網(wǎng)絡(luò)的傳統(tǒng)目標(biāo)檢測算法,另一種是使用神經(jīng)網(wǎng)絡(luò)的基于深度學(xué)習(xí)的目標(biāo)檢測算法。傳統(tǒng)目標(biāo)檢測算法是對(duì)圖像提取候選區(qū)域,然后使用手工設(shè)計(jì)的特征對(duì)候選區(qū)域提取特征,然后用分類器分類。深度學(xué)習(xí)目標(biāo)檢測算法直接將一整張圖片作為輸入,通過神經(jīng)網(wǎng)絡(luò)自主學(xué)習(xí)特征,直接端到端的完成特征提娶目標(biāo)分類、矩形框回歸等操作。1.2.1傳統(tǒng)目標(biāo)檢測算法研究現(xiàn)狀如圖1-3所示,目標(biāo)檢測算法主要包含五個(gè)步驟。
哈爾濱工業(yè)大學(xué)工學(xué)碩士學(xué)位論文16圖2-8FastR-CNN架構(gòu)圖[27]目標(biāo)分類是先將特征通過一個(gè)全連接層,再使用softmax層來得到候選區(qū)域的類別概率。因?yàn)楦信d趣區(qū)域不一定與真實(shí)框完美重合,所以需要對(duì)感興趣區(qū)域的候選框位置微調(diào),使預(yù)測框與真實(shí)框的交并比盡可能大。因此目標(biāo)檢測算法的損失函數(shù)一般包括兩部分:分類損失和回歸損失。如式(2-3)所示。(,,,)=(,)+[≥1](,)(2-3)其中是預(yù)測候選區(qū)域通過softmax預(yù)測的各類別的概率。是候選區(qū)域真實(shí)類別,=0表示背景。(,)是分類損失,(,)=表示當(dāng)候選框真實(shí)類別為時(shí)的損失。是預(yù)測框的轉(zhuǎn)化后的相對(duì)坐標(biāo),是目標(biāo)框的真實(shí)相對(duì)坐標(biāo)。[≥1]表示只有前景目標(biāo)才參與回歸損失計(jì)算。(,)是平滑1損失,計(jì)算方式如式(2-4)、(2-5)。(,)=∑1()∈{,,,}(2-4)1()={0.2||<1||0.,(2-5)2.4后處理步驟目標(biāo)檢測算法對(duì)同一個(gè)目標(biāo)往往會(huì)輸出很多個(gè)檢測框,這些檢測框相互重合,而一個(gè)目標(biāo)只需要一個(gè)最優(yōu)的檢測框。在目標(biāo)分類和位置回歸之后,本文需要后處理步驟來刪除那些冗余的檢測框,只留下最優(yōu)的那個(gè)檢測框。非極大值抑制是研究人員常用的篩選檢測框算法。表2-1是NMS算法的流程,NMS算法首先將預(yù)測框按照置信度從大到小排序,保留最大置信度的預(yù)測框到輸出集合中,然后刪除剩余預(yù)測框中與最大置信度預(yù)測框交并比大于所設(shè)閾值的預(yù)測框,再對(duì)剩下的預(yù)測框重復(fù)上面的操作直到任何兩個(gè)預(yù)測框的交并比小于所設(shè)閾值。圖2-9是經(jīng)過NMS處理后的效果圖,可以看到左圖中有很多個(gè)黃色的冗余
【參考文獻(xiàn)】:
期刊論文
[1]自底向上的顯著性目標(biāo)檢測研究綜述[J]. 吳加瑩,楊賽,堵俊,林宏達(dá). 計(jì)算機(jī)科學(xué). 2019(03)
[2]基于難分樣本挖掘的快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測研究[J]. 張燁,許艇,馮定忠,蔣美仙,吳光華. 電子與信息學(xué)報(bào). 2019(06)
[3]基于轉(zhuǎn)置卷積操作改進(jìn)的單階段多邊框目標(biāo)檢測方法[J]. 郭川磊,何嘉. 計(jì)算機(jī)應(yīng)用. 2018(10)
[4]目標(biāo)檢測算法研究綜述[J]. 方路平,何杭江,周國民. 計(jì)算機(jī)工程與應(yīng)用. 2018(13)
本文編號(hào):3295264
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3295264.html
最近更新
教材專著