多比例車輛目標(biāo)的分類識別
發(fā)布時間:2021-08-06 05:48
應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)(CNN)進行車型分類識別時,系統(tǒng)研究了車輛目標(biāo)在圖像中的比例變化對CNN識別率的影響,發(fā)現(xiàn)比例過大或過小都會降低識別率。針對這種影響,研究和分析了卷積核尺寸、堆疊卷積結(jié)構(gòu)和加入批歸一化(BN)層對多比例車輛目標(biāo)的識別效果。建立了6個具有不同目標(biāo)比例的數(shù)據(jù)集,分別測試經(jīng)典CNN模型Lenet—5和構(gòu)建的4個不同結(jié)構(gòu)的CNN模型。以Lenet—5的實驗結(jié)果為參照,并對比不同模型的實驗結(jié)果,研究了不同層次結(jié)構(gòu)對消除目標(biāo)比例影響的作用。其中表現(xiàn)最優(yōu)的模型能夠把識別率的波動穩(wěn)定在1. 0%以內(nèi),最高識別率為97. 33%。多種目標(biāo)比例混合后測試模型,發(fā)現(xiàn)CNN對于目標(biāo)比例為50%的樣本識別率最高。實驗結(jié)果為CNN在車輛目標(biāo)分類識別的研究和應(yīng)用提供了參考價值。
【文章來源】:傳感器與微系統(tǒng). 2020,39(07)CSCD
【文章頁數(shù)】:5 頁
【部分圖文】:
不同模型測試結(jié)果
把6個單一目標(biāo)比例的數(shù)據(jù)集中的訓(xùn)練集進行混合,制成多種目標(biāo)比例混合的數(shù)據(jù)集。CNN模型選用C模型,訓(xùn)練200次后,使用6個單一目標(biāo)比例數(shù)據(jù)集的測試集分別去測試,所得結(jié)果如圖3所示。圖3表明,當(dāng)訓(xùn)練數(shù)據(jù)集具有多種目標(biāo)比例時,模型對于目標(biāo)比例最小的識別最高,比最低識別率高出3.58%。當(dāng)樣本具有多種目標(biāo)比例時,使目標(biāo)處于恰當(dāng)?shù)谋壤虺叽,會一定程度上提高識別率。3 結(jié)論
實驗樣本是以車輛為識別目標(biāo),根據(jù)車輛類型,把樣本分為4類,分別為SUV,Sedan,Bus和Minibus,樣本全部為車輛正面的圖像。樣本盡量控制了背景、顏色、目標(biāo)位置、樣本數(shù)量等其他可能影響結(jié)果的因素,把目標(biāo)比例作為唯一變量,建立了較為完備的數(shù)據(jù)集。由于車輛目標(biāo)高低各有不同,為不發(fā)生形變,本文只控制目標(biāo)的寬度和計算寬度的占比。部分圖像樣本如圖1所示。如圖1,根據(jù)目標(biāo)的遠近不同,采集了同一背景下的6個不同目標(biāo)比例的圖像樣本,目標(biāo)寬度分別約為32,29,26,23,20,16(單位為像素pixels),在32×32的圖像中,目標(biāo)寬度占圖像寬度的比例分別約為100%,90.6%,81.3%,71.9%,62.5%,50.0%。把每個目標(biāo)尺寸的圖像都分別制作成數(shù)據(jù)集,測試集和訓(xùn)練集按照7:3的比例劃分,共制作成6個單一目標(biāo)尺寸的數(shù)據(jù)集。其中,每個數(shù)據(jù)集都包含4類車型,每類車型具有200個圖像樣本,一共800個圖像樣本。
【參考文獻】:
期刊論文
[1]卷積神經(jīng)網(wǎng)絡(luò)池化方法研究[J]. 周林勇,謝曉堯,劉志杰,任筆墨. 計算機工程. 2019(04)
[2]應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)與RPN的交通標(biāo)志識別[J]. 譚臺哲,盧劍彪,溫捷文,李楚宏,凌偉林. 計算機工程與應(yīng)用. 2018(21)
[3]基于Fg-CarNet的車輛型號精細分類研究[J]. 余燁,金強,傅云翔,路強. 自動化學(xué)報. 2018(10)
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的車型識別方法研究[J]. 紀(jì)野,李玉惠,王蒙. 傳感器與微系統(tǒng). 2017(11)
[5]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍. 計算機學(xué)報. 2017(06)
[6]深度卷積神經(jīng)網(wǎng)絡(luò)的汽車車型識別方法[J]. 張軍,張婷,楊正瓴,朱新山,楊伯軒. 傳感器與微系統(tǒng). 2016(11)
博士論文
[1]固定翼無人機地面車輛目標(biāo)自動檢測與跟蹤[D]. 李大偉.中國科學(xué)院大學(xué)(中國科學(xué)院國家空間科學(xué)中心) 2017
本文編號:3325191
【文章來源】:傳感器與微系統(tǒng). 2020,39(07)CSCD
【文章頁數(shù)】:5 頁
【部分圖文】:
不同模型測試結(jié)果
把6個單一目標(biāo)比例的數(shù)據(jù)集中的訓(xùn)練集進行混合,制成多種目標(biāo)比例混合的數(shù)據(jù)集。CNN模型選用C模型,訓(xùn)練200次后,使用6個單一目標(biāo)比例數(shù)據(jù)集的測試集分別去測試,所得結(jié)果如圖3所示。圖3表明,當(dāng)訓(xùn)練數(shù)據(jù)集具有多種目標(biāo)比例時,模型對于目標(biāo)比例最小的識別最高,比最低識別率高出3.58%。當(dāng)樣本具有多種目標(biāo)比例時,使目標(biāo)處于恰當(dāng)?shù)谋壤虺叽,會一定程度上提高識別率。3 結(jié)論
實驗樣本是以車輛為識別目標(biāo),根據(jù)車輛類型,把樣本分為4類,分別為SUV,Sedan,Bus和Minibus,樣本全部為車輛正面的圖像。樣本盡量控制了背景、顏色、目標(biāo)位置、樣本數(shù)量等其他可能影響結(jié)果的因素,把目標(biāo)比例作為唯一變量,建立了較為完備的數(shù)據(jù)集。由于車輛目標(biāo)高低各有不同,為不發(fā)生形變,本文只控制目標(biāo)的寬度和計算寬度的占比。部分圖像樣本如圖1所示。如圖1,根據(jù)目標(biāo)的遠近不同,采集了同一背景下的6個不同目標(biāo)比例的圖像樣本,目標(biāo)寬度分別約為32,29,26,23,20,16(單位為像素pixels),在32×32的圖像中,目標(biāo)寬度占圖像寬度的比例分別約為100%,90.6%,81.3%,71.9%,62.5%,50.0%。把每個目標(biāo)尺寸的圖像都分別制作成數(shù)據(jù)集,測試集和訓(xùn)練集按照7:3的比例劃分,共制作成6個單一目標(biāo)尺寸的數(shù)據(jù)集。其中,每個數(shù)據(jù)集都包含4類車型,每類車型具有200個圖像樣本,一共800個圖像樣本。
【參考文獻】:
期刊論文
[1]卷積神經(jīng)網(wǎng)絡(luò)池化方法研究[J]. 周林勇,謝曉堯,劉志杰,任筆墨. 計算機工程. 2019(04)
[2]應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)與RPN的交通標(biāo)志識別[J]. 譚臺哲,盧劍彪,溫捷文,李楚宏,凌偉林. 計算機工程與應(yīng)用. 2018(21)
[3]基于Fg-CarNet的車輛型號精細分類研究[J]. 余燁,金強,傅云翔,路強. 自動化學(xué)報. 2018(10)
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的車型識別方法研究[J]. 紀(jì)野,李玉惠,王蒙. 傳感器與微系統(tǒng). 2017(11)
[5]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍. 計算機學(xué)報. 2017(06)
[6]深度卷積神經(jīng)網(wǎng)絡(luò)的汽車車型識別方法[J]. 張軍,張婷,楊正瓴,朱新山,楊伯軒. 傳感器與微系統(tǒng). 2016(11)
博士論文
[1]固定翼無人機地面車輛目標(biāo)自動檢測與跟蹤[D]. 李大偉.中國科學(xué)院大學(xué)(中國科學(xué)院國家空間科學(xué)中心) 2017
本文編號:3325191
本文鏈接:http://www.sikaile.net/kejilunwen/jiaotonggongchenglunwen/3325191.html
教材專著