天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

融合局部特征的行人重識(shí)別神經(jīng)網(wǎng)絡(luò)模型

發(fā)布時(shí)間:2020-10-28 05:06
   隨著現(xiàn)代社會(huì)中監(jiān)控設(shè)備的大量部署,對(duì)監(jiān)控畫(huà)面的人工檢視顯得力不從心,智能監(jiān)控領(lǐng)域的研究正受到越來(lái)越多的關(guān)注。行人重識(shí)別則是智能監(jiān)控中的核心一環(huán),主要研究?jī)?nèi)容是從無(wú)重疊視場(chǎng)的監(jiān)控畫(huà)面中查找出指定的行人目標(biāo),用來(lái)刻畫(huà)該目標(biāo)在監(jiān)控點(diǎn)之間的移動(dòng)軌跡。行人重識(shí)別的研究可以被看作是一個(gè)類(lèi)似模式識(shí)別的分類(lèi)問(wèn)題,一般由對(duì)行人的特征提取和對(duì)特征進(jìn)行度量?jī)刹酵瓿。行人重識(shí)別的很多研究都關(guān)注于對(duì)行人的特征提取方面。由于行人圖像的復(fù)雜性,傳統(tǒng)計(jì)算機(jī)視覺(jué)領(lǐng)域的方法往往難以定義出一個(gè)良好的特征描述子;而近年來(lái)興起的深度神經(jīng)網(wǎng)絡(luò)模型,雖然已經(jīng)具備了一定的行人重識(shí)別能力,但其往往都是對(duì)圖像的全局像素進(jìn)行無(wú)差別的學(xué)習(xí),無(wú)法區(qū)分圖像的重點(diǎn)區(qū)域?紤]到行人圖像中常有一半左右的像素屬于背景畫(huà)面,與行人目標(biāo)沒(méi)有直接關(guān)系,影響了特征的質(zhì)量,因此本文希望在引入深度網(wǎng)絡(luò)模型的基礎(chǔ)上,強(qiáng)化行人目標(biāo)對(duì)特征的影響,弱化噪聲干擾,來(lái)提高行人特征描述子的質(zhì)量,獲得更高性能的模型。本文首先基于表征學(xué)習(xí)的思路提出了一個(gè)特征融合網(wǎng)絡(luò),將行人的局部特征和全局特征融合成一個(gè)統(tǒng)一的特征描述子來(lái)對(duì)行人進(jìn)行識(shí)別和分類(lèi)。該網(wǎng)絡(luò)模型由3部分組成:行人局部特征提取模塊、全局特征提取模塊和特征融合模塊。局部特征提取模塊使用了改進(jìn)的LOMO方法來(lái)描述局部特征,該方法將提取LOMO特征的范圍限定在行人目標(biāo)的主體區(qū)域中,盡可能的排除背景像素對(duì)特征造成的干擾,來(lái)強(qiáng)化前景像素的影響;全局特征提取模塊選用了近年表現(xiàn)較為突出的深度殘差網(wǎng)絡(luò)模型,獲得行人全局特征向量;特征融合模塊通過(guò)訓(xùn)練神經(jīng)元,將行人的局部和全局特征向量相融合,并完成對(duì)行人圖像的識(shí)別、分類(lèi)工作。最后通過(guò)在主流的行人重識(shí)別數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn),證明該特征融合網(wǎng)絡(luò)的性能優(yōu)于傳統(tǒng)的特征提取方法和單一的深度神經(jīng)網(wǎng)絡(luò)模型。隨后本文在度量學(xué)習(xí)方法上對(duì)該特征融合網(wǎng)絡(luò)進(jìn)行進(jìn)一步改進(jìn)和優(yōu)化,以特征融合網(wǎng)絡(luò)為基礎(chǔ),提出了一個(gè)融合行人局部特征的三元組度量模型。通過(guò)特征融合網(wǎng)絡(luò)計(jì)算三元組的特征向量,并度量出特征的距離,訓(xùn)練模型完成推開(kāi)負(fù)樣本對(duì)、拉近正樣本對(duì)的工作。為了保證模型的訓(xùn)練效率,模型通過(guò)難樣本取樣的方式從數(shù)據(jù)集中選取樣本構(gòu)成輸入的三元組。通過(guò)對(duì)比實(shí)驗(yàn),該三元組度量模型進(jìn)一步提高了特征融合網(wǎng)絡(luò)的分類(lèi)精度,達(dá)到了優(yōu)化模型的目的,同時(shí)也證明了度量學(xué)習(xí)的方法在規(guī)模較大的數(shù)據(jù)集上,相較表征學(xué)習(xí)能取得更好的準(zhǔn)確性。
【學(xué)位單位】:西安電子科技大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位年份】:2019
【中圖分類(lèi)】:TP391.41;TP183
【部分圖文】:

行人,顏色,名稱,手提袋


如圖 1.1,圖中主要依據(jù)的檢測(cè)特征從左到右依次為短褲,手提袋,背包,商標(biāo),條紋。圖1.1 檢測(cè)條帶中特征的結(jié)果。2014 年中科院 Yang Y[8]等人提出了一種基于顯著顏色名稱的顏色描述子(SalientColorNamesbasedColorDescriptor,SCNCD)方法用于行人重識(shí)別的研究,原理如圖 1.2 所示。SCNCD 是將 RGB 顏色空間中的 16 色色板顏色名稱預(yù)定義為基準(zhǔn)顏色名稱,通過(guò)計(jì)算行人目標(biāo)的圖像顏色(RGB 空間)的概率分布,將行人的顏色映射到基準(zhǔn)名稱中,依據(jù)顏色名稱分布來(lái)描述行人特征。文中通過(guò)實(shí)驗(yàn)證明了 SCNCD能夠比較好的應(yīng)對(duì)光照變化、背景干擾和較小部分的行人遮擋。

示意圖,顏色,描述子,原理


西安電子科技大學(xué)碩士學(xué)位論文4圖1.2 基于顯著顏色名稱的顏色描述子原理示意圖2015 年 LiaoS [9]提出一種局部最大事件(Local Maximal Occurrence,LOMO)作為對(duì)行人圖像特征的描述,在人工提取的特征描述子中性能較為優(yōu)異。以上一些學(xué)者主要從圖像特征上著手,取得了相當(dāng)?shù)难芯砍晒,并為后?lái)的研究者提供了大量的思路。而隨著神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)的興起,越來(lái)越多的研究人員發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)[11]工具可以很好的應(yīng)用在包括行人重識(shí)別在內(nèi)的計(jì)算機(jī)視覺(jué)領(lǐng)域中多種方向,使得行人重識(shí)別研究成果進(jìn)入了一個(gè)新的高潮。深度學(xué)習(xí)下的行人重識(shí)別工作主要分為表征學(xué)習(xí)和度量學(xué)習(xí)兩個(gè)方向[10]。2016 年,Ahmed E 等人[12]提出了一個(gè)神經(jīng)網(wǎng)絡(luò)模型,如圖 1.3

模型結(jié)構(gòu),行人,特征信息,卷積


圖1.3 EjazAhmed 等人提出的模型結(jié)構(gòu)圖[12]用孿生網(wǎng)絡(luò)結(jié)構(gòu),輸入為一對(duì)行人圖像,各自通過(guò)一個(gè)共Tied Convolution),并提取一定的特征信息;在較高層Differences)計(jì)算出前面卷積層和池化層得到的兩個(gè)行人
【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 祖來(lái)克孜·米吉提;;神經(jīng)網(wǎng)絡(luò)模型在分類(lèi)與預(yù)測(cè)中的應(yīng)用研究[J];喀什大學(xué)學(xué)報(bào);2018年03期

2 陳海華;;基于神經(jīng)網(wǎng)絡(luò)模型的高速公路交通量短時(shí)預(yù)測(cè)方法[J];中國(guó)交通信息化;2017年08期

3 李赟妮;;神經(jīng)網(wǎng)絡(luò)模型在銀行互聯(lián)網(wǎng)金融反欺詐中的應(yīng)用探索[J];金融科技時(shí)代;2018年08期

4 花廣如;李文浩;郭陽(yáng)陽(yáng);;基于神經(jīng)網(wǎng)絡(luò)模型的海南變電站接地網(wǎng)Q235鋼腐蝕率預(yù)測(cè)[J];腐蝕與防護(hù);2017年08期

5 周靜;周正松;高旸;許歡;裴姣;張韜;;神經(jīng)網(wǎng)絡(luò)模型應(yīng)用于數(shù)據(jù)缺失機(jī)制識(shí)別的可行性分析[J];現(xiàn)代預(yù)防醫(yī)學(xué);2017年21期

6 王呈會(huì);;神經(jīng)網(wǎng)絡(luò)模型在水文模擬中的應(yīng)用研究[J];東北水利水電;2016年05期

7 ;新型人造突觸可使人工智能更加“聰明”[J];科學(xué)之友(上半月);2017年08期

8 曹文才;;科技型中小企業(yè)技術(shù)創(chuàng)新能力評(píng)價(jià)體系的構(gòu)建——基于量子衍生神經(jīng)網(wǎng)絡(luò)模型的實(shí)證研究[J];應(yīng)用概率統(tǒng)計(jì);2013年06期

9 紀(jì)娟;;神經(jīng)網(wǎng)絡(luò)模型在財(cái)務(wù)風(fēng)險(xiǎn)預(yù)警中的應(yīng)用[J];網(wǎng)絡(luò)安全技術(shù)與應(yīng)用;2011年01期

10 郭強(qiáng);羅長(zhǎng)壽;魏清鳳;;基于遺傳算法神經(jīng)網(wǎng)絡(luò)模型的蔬菜價(jià)格預(yù)報(bào)[J];安徽農(nóng)業(yè)科學(xué);2011年26期


相關(guān)博士學(xué)位論文 前10條

1 楊繼偉;多特征融合的行人重識(shí)別算法研究及其加速[D];中國(guó)科學(xué)技術(shù)大學(xué);2019年

2 張國(guó)校;基于深層神經(jīng)網(wǎng)絡(luò)模型的淺層語(yǔ)義解析統(tǒng)計(jì)研究[D];暨南大學(xué);2017年

3 周彥辰;事故條件下放射性廢液污染預(yù)測(cè)的機(jī)理性神經(jīng)網(wǎng)絡(luò)模型研究[D];武漢大學(xué);2015年

4 王雨農(nóng);基于視覺(jué)注意機(jī)制的神經(jīng)網(wǎng)絡(luò)模型研究及應(yīng)用[D];中國(guó)科學(xué)技術(shù)大學(xué);2017年

5 喻維;軟件缺陷報(bào)告管理關(guān)鍵技術(shù)研究[D];華南理工大學(xué);2018年

6 李翠平;解l_1-范數(shù)問(wèn)題的神經(jīng)網(wǎng)絡(luò)模型研究[D];陜西師范大學(xué);2018年

7 袁朝暉;二元離散神經(jīng)網(wǎng)絡(luò)模型的動(dòng)力學(xué)分析[D];湖南大學(xué);2003年

8 劉開(kāi)宇;幾類(lèi)二元神經(jīng)網(wǎng)絡(luò)模型的動(dòng)力學(xué)性質(zhì)研究[D];湖南大學(xué);2004年

9 李秀玲;具時(shí)滯的四維神經(jīng)網(wǎng)絡(luò)模型的分支問(wèn)題研究[D];東北師范大學(xué);2005年

10 黃創(chuàng)霞;幾類(lèi)神經(jīng)網(wǎng)絡(luò)模型的動(dòng)力學(xué)研究[D];湖南大學(xué);2006年


相關(guān)碩士學(xué)位論文 前10條

1 楊雄輝;彩色圖像引導(dǎo)的深度圖像重建方法研究[D];南昌大學(xué);2019年

2 鄒大鵬;基于自組織映射與自適應(yīng)諧振學(xué)習(xí)的協(xié)同神經(jīng)網(wǎng)絡(luò)模型研究[D];哈爾濱工業(yè)大學(xué);2019年

3 張思陽(yáng);具有位錯(cuò)結(jié)構(gòu)的全方位輪式移動(dòng)平臺(tái)運(yùn)動(dòng)特性研究[D];沈陽(yáng)航空航天大學(xué);2019年

4 柯賢庭;Spiking卷積神經(jīng)網(wǎng)絡(luò)模型研究及應(yīng)用[D];西安電子科技大學(xué);2019年

5 李天霖;融合局部特征的行人重識(shí)別神經(jīng)網(wǎng)絡(luò)模型[D];西安電子科技大學(xué);2019年

6 謝忱宇;基于LSTM神經(jīng)網(wǎng)絡(luò)模型的因子選股策略研究[D];遼寧大學(xué);2019年

7 張婷婷;三類(lèi)時(shí)滯細(xì)胞神經(jīng)網(wǎng)絡(luò)模型的穩(wěn)定性分析[D];東北林業(yè)大學(xué);2019年

8 許棟武;基于多任務(wù)學(xué)習(xí)的車(chē)輛再識(shí)別算法研究[D];北京交通大學(xué);2019年

9 王超;優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)模型在隧道探地雷達(dá)實(shí)測(cè)數(shù)據(jù)分類(lèi)中的研究及應(yīng)用[D];長(zhǎng)安大學(xué);2019年

10 徐峰;基于改進(jìn)神經(jīng)網(wǎng)絡(luò)模型的鋰電池SOC預(yù)測(cè)方法研究[D];重慶郵電大學(xué);2018年



本文編號(hào):2859632

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/2859632.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶a3a18***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com